CN108596335A - 一种基于深度强化学习的自适应众包方法 - Google Patents

一种基于深度强化学习的自适应众包方法 Download PDF

Info

Publication number
CN108596335A
CN108596335A CN201810362557.8A CN201810362557A CN108596335A CN 108596335 A CN108596335 A CN 108596335A CN 201810362557 A CN201810362557 A CN 201810362557A CN 108596335 A CN108596335 A CN 108596335A
Authority
CN
China
Prior art keywords
task
worker
crowdsourcing
candidate
agent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810362557.8A
Other languages
English (en)
Other versions
CN108596335B (zh
Inventor
张寅�
杨璞
胡滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201810362557.8A priority Critical patent/CN108596335B/zh
Publication of CN108596335A publication Critical patent/CN108596335A/zh
Application granted granted Critical
Publication of CN108596335B publication Critical patent/CN108596335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06311Scheduling, planning or task assignment for a person or group

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • Development Economics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Educational Administration (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于深度强化学习的自适应众包方法。方法具体为:1)首先从众包系统中采样需要分配的任务和候选的众包工人;2)通过深度学习方法获得待分配任务和候选工人的低维特征表示;3)通过强化学习方法确定任务分配策略;4)众包系统根据分配策略分配任务,根据任务完成结果评估本次分配获得的收益,将该收益反馈给强化学习方法,更新强化学习参数;5)从1)开始继续下一轮的任务分配。和现有技术相比,本发明结合了深度强化学习方法,系统地对任务分配问题进行建模,针对不同任务本身的特征选择合适的众包工人,形成了自适应的智能众包方法,创造性地提升了众包的工作效率和效果。

Description

一种基于深度强化学习的自适应众包方法
技术领域
本发明涉及深度强化学习方法在众包系统上的应用,尤其涉及众包系统中工人遴选、任务分配的技术方法。
背景技术
随着互联网的快速发展及信息全球化的推进,众包模式应运而生。众包是互联网带来的新的生产组织形式,改变了传统的解决方案,是一种分布式解决问题的方式,即利用互联网将相关工作分解并分配出去,化整为零。通过给予参与用户适当的奖励,将空闲生产力利用起来。对于政府和非盈利性组织而言,众包被认为是一种有潜力的问题解决机制。
众包在数据标注、图书电子化、知识图谱构建等方面都有着广泛的应用。在数据标注方面,海量非结构化数据需要人为标注转化为结构化数据,包括有监督深度学习在内的一系列方法都需要大量结构化数据作为支撑。而这些数据标注任务难以在短时间内由少数人完成。在图书电子化领域,数字图书馆的蓬勃发展使得人们可以通过互联网访问海量的图书资源,节能环保,但现存的扫描版电子书需要大量的人力物力转换为文本数据。虽然目前的OCR技术已较为成熟,但仍有大量的识别错误需要人为修正。除此之外,知识图谱构建也面临着类似问题。虽然知识图谱能够挖掘、分析、构建、绘制、显示知识及其相互关系,为学科研究提供切实的、有价值的参考,但知识图谱的构建过程中命名实体识别、实体关系抽取等任务均需要人工的参与。面对诸如此类的困境,众包技术的使用可以大大提高工作效率、降低投入成本。
在众包技术的应用中,任务的具体分配会很大程度影响到生产效率。一份不够完善的分配方案很有可能导致冗余工作的产生,增大成本,降低产出;反之,一份完善的分配方案能更大程度发挥众包技术的优势,提高空闲生产力的利用率。本发明重点对任务分配过程进行建模,将任务集合和工人集合的特点(即任务和工人的原始特征数据)和众包应用的任务目标相结合,用深度强化学习的方法获得一份完善的分配方案。
发明内容
为了解决现有技术中存在的问题,本发明提供了一种基于深度强化学习的自适应众包方法。
本发明结合深度学习和强化学习方法确定任务分配策略。对于某个具体目标的众包应用,本发明首先通过深度学习方法遴选众包工人,之后再运用强化学习方法确定具体任务分配,并根据最终任务的完成情况与目标的契合程度的反馈更新强化学习算法参数,优化分配策略。通过结合深度学习与强化学习,本发明不仅保证了任务分配方案契合众包应用的最终目标,保障了众包的质量,同时还完成了方法结构的分层,使得任务分配更具灵活性。
为实现上述目的,本发明的技术方案为:
基于深度强化学习的自适应众包方法,其步骤如下:
S1.首先从众包系统中采样需要分配的众包任务和众包工人的信息;
S2.通过深度学习方法获得待分配任务和工人的低维特征表示,具体包括以下子步骤:
S21.获取原始特征数据,包括众包任务的原始特征和众包工人的原始特征;
S22.构建深度神经网络,包括Encoder和Decoder两部分,其中Encoder的输入为原始特征数据,输出为原始特征的低维表示;Decoder的输入为Encoder所得的低维表示,输出为该低维表示的解析结果,即原始特征数据的近似表达;
S23.一同训练Encoder和Decoder,输入设定为原始特征数据,损失函数设定为原始特征数据与Decoder最终输出的距离,训练使得Encoder-Decoder的输出逼近原始特征数据;
S24.使用训练好的Encoder,输入原始特征数据后获得原始特征数据的低维表示;
S3.通过深度学习方法获得每个工人入选候选集合的概率,遴选候选工人,具体包括以下子步骤:
S31.构建深度神经网络Candidate,输入为工人的低维特征表示,输出为该工人入选候选集合的概率;
S32.训练Candidate,输入设定为工人的低维特征表示、工人得到任务后完成任务的概率,损失函数设定为工人完成任务概率和Candidate最终输出的距离,训练使得Candidate的输出逼近工人完成任务的概率,即工人任务完成率越高,工人入选候选集合概率越高;
S33.使用训练好的Candidate,获得每个待分配工人入选候选集合的概率,并依概率将工人选入候选集合;
S4.通过强化学习方法确定任务分配策略,完成本轮任务执行,具体包括以下子步骤:
S41.将待分配任务和候选工人的低维特征作为强化学习Agent第一层的输入,第一层Agent根据其内部的深度神经网络确定一个到多个工人;
S42.根据第一层Agent确定的工人,选取Agent第二层并输入待分配的任务,Agent第二层根据其内部的深度神经网络确定一个到多个任务进行分配,即确定任务分配策略,交由Environment执行;
S43.得到Environment分配策略后立即完成分配,工人执行完分配的任务后计算本轮任务分配获得的收益;
S5.根据上一轮执行结果,优化强化学习参数并更新工人的原始特征数据,并执行步骤S2-S4,具体包括以下子步骤:
S51.根据上一轮任务执行结果,将Environment计算的收益反馈给强化学习两层Agent,两层Agent根据获得的收益反馈,调整内部的深度神经网络,提高选择高收益策略的概率,降低选择低收益策略的概率;
S52.根据上一轮任务执行结果,更新工人的原始特征数据;
S53.Environment保留上一轮未分配的任务,通过随机采样补全待分配任务,获得新一轮的待分配任务;并再次执行步骤S2获得新一轮的候选工人集合;
S54.将新一轮的待分配任务和候选工人集合的原始特征作为输入,再次执行所述步骤S3和S4;
S6.不断重复步骤S5直到众包任务完成。
作为优选,所述众包任务的原始特征包括任务分类标签、任务文本内容、预估困难程度;所述众包工人的原始特征包括别、年龄、完成任务时间分布、历史总分配任务数、历史总完成任务数、各类任务分配和完成数。
作为优选,步骤S4中,所述的Agent第一层神经网络通过计算每个工人的预期收益,选择一到多个预期收效最高的工人进行分配,并根据每轮任务收益的反馈,调整计算工人预期收益相关的参数。
作为优选,步骤S4中,所述的Agent第二层神经网络通过计算每个任务的预期收益,选择一个到多个预期收益最高的任务分配给工人,并根据每轮任务收益的反馈,调整计算任务预期收益相关的参数。
作为优选,步骤S4中,所述Agent的第一、二层的各个单元采用不同的强化学习方法,所述强化学习方法包括Q-learning、DQN、DPG、DDPG;第二层Agent的每个单元对应一个工人,单元数量根据工人数量自适应变化。
作为优选,步骤S5中,所述的收益反馈可根据众包需求针对性设定:若众包设定的目标是尽可能多地完成任务,则收益反馈的内容为任务最终的完成数量;若众包设定的目标是尽可能正确地完成任务,也就是既快又好地完成任务,则反馈为完成任务的准确率;若众包设定的目标是同时兼顾上述两种目标,则反馈为任务最终完成数量与完成任务准确率的加权求和。
和现有技术相比,本发明结合了深度强化学习方法,系统地对任务分配问题进行建模,针对不同任务本身的特征选择合适的众包工人,形成独具一格的自适应众包技术,创造性地提升了众包的工作效率和效果。
附图说明
图1为基于深度强化学习的自适应众包方法的流程图;
图2为基于深度强化学习的自适应众包方法模型图;
图3为DQN模型图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图对本发明进行进一步详细说明。
参考图1,为本发明的基于深度强化学习的自适应众包方法的实施流程。基于深度强化学习的自适应众包方法包括以下步骤:
S1.首先从众包系统中采样需要分配的众包任务和众包工人的信息;
本步骤中,所述众包任务的原始特征包括任务分类标签、任务文本内容、预估困难程度;所述众包工人的原始特征包括别、年龄、完成任务时间分布、历史总分配任务数、历史总完成任务数、各类任务分配和完成数。
S2.通过深度学习方法获得待分配任务和工人的低维特征表示,具体包括以下子步骤:
S21.获取原始特征数据,包括众包任务的原始特征和众包工人的原始特征;
S22.构建深度神经网络,包括Encoder和Decoder两部分,其中Encoder的输入为原始特征数据,输出为原始特征的低维表示;Decoder的输入为Encoder所得的低维表示,输出为该低维表示的解析结果,即原始特征数据的近似表达;
S23.一同训练Encoder和Decoder,输入设定为原始特征数据,损失函数设定为原始特征数据与Decoder最终输出的距离,训练使得Encoder-Decoder的输出尽量逼近原始特征数据;
S24.使用训练好的Encoder,输入原始特征数据后获得原始特征数据的低维表示;
S3.通过深度学习方法获得每个工人入选候选集合的概率,遴选候选工人,具体包括以下子步骤:
S31.构建深度神经网络Candidate,输入为工人的低维特征表示,输出为该工人入选候选集合的概率;
S32.训练Candidate,输入设定为工人的低维特征表示、工人得到任务后完成任务的概率,损失函数设定为工人完成任务概率和Candidate最终输出的距离,训练使得Candidate的输出尽量逼近工人完成任务的概率,即工人任务完成率越高,工人入选候选集合概率越高;
S33.使用训练好的Candidate,获得每个待分配工人入选候选集合的概率,并依概率将工人选入候选集合。
S4.通过强化学习方法确定任务分配策略,完成本轮任务执行,如图2所示,具体包括以下子步骤:
S41.将待分配任务和候选工人的低维特征作为强化学习Agent第一层的输入,第一层Agent根据其内部的深度神经网络确定一个到多个工人;
本步骤中,所述的Agent第一层神经网络通过计算每个工人的预期收益,选择一到多个预期收效最高的工人进行分配,并根据每轮任务收益的反馈,调整计算工人预期收益相关的参数。
S42.根据第一层Agent确定的工人,选取Agent第二层并输入待分配的任务,Agent第二层根据其内部的深度神经网络确定一个到多个任务进行分配,即确定任务分配策略,交由Environment执行;
本步骤中,所述的Agent第二层神经网络通过计算每个任务的预期收益,选择一个到多个预期收益最高的任务分配给工人,并根据每轮任务收益的反馈,调整计算任务预期收益相关的参数。
S43.得到Environment分配策略后立即完成分配,工人执行完分配的任务后计算本轮任务分配获得的收益;
本步骤,所述Agent的第一、二层的各个单元可采用不同的强化学习方法,所述强化学习方法包括Q-learning、DQN、DPG、DDPG;第二层Agent的每个单元对应一个工人,单元数量根据工人数量自适应变化。其中,DQN模型图如图3所示;以Q-learning为例,其每个单元内部的深度神经网络可视为一个函数Q(s,a),s为当前的状态输入(state),a为当前的选择输入(action),即评估当前输入下,每一种选择a的价值。其损失函数计算如下:
其中E()为期望函数,r为本次选择所获得的收益,γ为长期收益的折扣因子,s’为下一轮的状态输入,a’为下一轮的选择输入。这使得Q(s,a)能够不断地逼近输入s下,做出选择a的长期累计收益。在最终实施选择时,根据每个选择a的Q(s,a)值的高低,依概率确定一个到多个选择即可。
S5.根据上一轮执行结果,优化强化学习参数并更新工人的原始特征数据,并重复执行步骤S2-S4,具体包括以下子步骤:
S51根据上一轮任务执行结果,将Environment计算的收益反馈给强化学习两层Agent,两层Agent根据获得的收益反馈,调整内部的深度神经网络,提高选择高收益策略的概率,降低选择低收益策略的概率;
本步骤中,所述的收益反馈可根据众包需求针对性设定:若众包设定的目标是尽可能多地完成任务,则收益反馈的内容为任务最终的完成数量;若众包设定的目标是尽可能正确地完成任务,则反馈为完成任务的准确率;若众包设定的目标是兼顾上述两种目标,既快又好地完成任务,则反馈为任务最终完成数量与完成任务准确率的加权求和。
S52根据上一轮任务执行结果,更新工人的原始特征数据;
S53 Environment保留上一轮未分配的任务,通过随机采样补全待分配任务,获得新一轮的待分配任务;并再次执行步骤S2获得新一轮的候选工人集合;
S54将新一轮的待分配任务和候选工人集合的原始特征作为输入,再次执行步骤S3、S4;
S6.不断重复步骤S5直到众包任务完成。

Claims (6)

1.一种基于深度强化学习的自适应众包方法,其特征在于,步骤如下:
S1.首先从众包系统中采样需要分配的众包任务和众包工人的信息;
S2.通过深度学习方法获得待分配任务和工人的低维特征表示,具体包括以下子步骤:
S21.获取原始特征数据,包括众包任务的原始特征和众包工人的原始特征;
S22.构建深度神经网络,包括Encoder和Decoder两部分,其中Encoder的输入为原始特征数据,输出为原始特征的低维表示;Decoder的输入为Encoder所得的低维表示,输出为该低维表示的解析结果,即原始特征数据的近似表达;
S23.一同训练Encoder和Decoder,输入设定为原始特征数据,损失函数设定为原始特征数据与Decoder最终输出的距离,训练使得Encoder-Decoder的输出逼近原始特征数据;
S24.使用训练好的Encoder,输入原始特征数据后获得原始特征数据的低维表示;
S3.通过深度学习方法获得每个工人入选候选集合的概率,遴选候选工人,具体包括以下子步骤:
S31.构建深度神经网络Candidate,输入为工人的低维特征表示,输出为该工人入选候选集合的概率;
S32.训练Candidate,输入设定为工人的低维特征表示、工人得到任务后完成任务的概率,损失函数设定为工人完成任务概率和Candidate最终输出的距离,训练使得Candidate的输出逼近工人完成任务的概率,即工人任务完成率越高,工人入选候选集合概率越高;
S33.使用训练好的Candidate,获得每个待分配工人入选候选集合的概率,并依概率将工人选入候选集合;
S4.通过强化学习方法确定任务分配策略,完成本轮任务执行,具体包括以下子步骤:
S41.将待分配任务和候选工人的低维特征作为强化学习Agent第一层的输入,第一层Agent根据其内部的深度神经网络确定一个到多个工人;
S42.根据第一层Agent确定的工人,选取Agent第二层并输入待分配的任务,Agent第二层根据其内部的深度神经网络确定一个到多个任务进行分配,即确定任务分配策略,交由Environment执行;
S43.得到Environment分配策略后立即完成分配,工人执行完分配的任务后计算本轮任务分配获得的收益;
S5.根据上一轮执行结果,优化强化学习参数并更新工人的原始特征数据,并执行步骤S2-S4,具体包括以下子步骤:
S51.根据上一轮任务执行结果,将Environment计算的收益反馈给强化学习两层Agent,两层Agent根据获得的收益反馈,调整内部的深度神经网络,提高选择高收益策略的概率,降低选择低收益策略的概率;
S52.根据上一轮任务执行结果,更新工人的原始特征数据;
S53.Environment保留上一轮未分配的任务,通过随机采样补全待分配任务,获得新一轮的待分配任务;并再次执行步骤S2获得新一轮的候选工人集合;
S54.将新一轮的待分配任务和候选工人集合的原始特征作为输入,再次执行所述步骤S3和S4;
S6.不断重复步骤S5直到众包任务完成。
2.根据权利要求1所述的一种基于深度强化学习的自适应众包方法,其特征在于,步骤S1中,所述众包任务的原始特征包括任务分类标签、任务文本内容、预估困难程度;所述众包工人的原始特征包括别、年龄、完成任务时间分布、历史总分配任务数、历史总完成任务数、各类任务分配和完成数。
3.根据权利要求1所述的一种基于深度强化学习的自适应众包方法,其特征在于,步骤S4中,所述的Agent第一层神经网络通过计算每个工人的预期收益,选择一到多个预期收效最高的工人进行分配,并根据每轮任务收益的反馈,调整计算工人预期收益相关的参数。
4.根据权利要求1所述的一种基于深度强化学习的自适应众包方法,其特征在于,步骤S4中,所述的Agent第二层神经网络通过计算每个任务的预期收益,选择一个到多个预期收益最高的任务分配给工人,并根据每轮任务收益的反馈,调整计算任务预期收益相关的参数。
5.根据权利要求1所述的一种基于深度强化学习的自适应众包方法,其特征在于,步骤S4中,所述Agent的第一、二层的各个单元采用不同的强化学习方法,所述强化学习方法包括Q-learning、DQN、DPG、DDPG;第二层Agent的每个单元对应一个工人,单元数量根据工人数量自适应变化。
6.根据权利要求1所述的一种基于深度强化学习的自适应众包方法,其特征在于,步骤S5中,所述的收益反馈可根据众包需求针对性设定:若众包设定的目标是尽可能多地完成任务,则收益反馈的内容为任务最终的完成数量;若众包设定的目标是尽可能正确地完成任务,则反馈为完成任务的准确率;若众包设定的目标是同时兼顾上述两种目标,则反馈为任务最终完成数量与完成任务准确率的加权求和。
CN201810362557.8A 2018-04-20 2018-04-20 一种基于深度强化学习的自适应众包方法 Active CN108596335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810362557.8A CN108596335B (zh) 2018-04-20 2018-04-20 一种基于深度强化学习的自适应众包方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810362557.8A CN108596335B (zh) 2018-04-20 2018-04-20 一种基于深度强化学习的自适应众包方法

Publications (2)

Publication Number Publication Date
CN108596335A true CN108596335A (zh) 2018-09-28
CN108596335B CN108596335B (zh) 2020-04-17

Family

ID=63613803

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810362557.8A Active CN108596335B (zh) 2018-04-20 2018-04-20 一种基于深度强化学习的自适应众包方法

Country Status (1)

Country Link
CN (1) CN108596335B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409739A (zh) * 2018-10-19 2019-03-01 南京大学 一种基于部分可观测马尔科夫决策过程的众包平台任务分配方法
CN109523499A (zh) * 2018-11-16 2019-03-26 济南浪潮高新科技投资发展有限公司 一种基于众包的多源融合全景建模方法
CN110458429A (zh) * 2019-07-29 2019-11-15 暨南大学 一种针对地理网点的智能任务分配和人员调度方法、系统
CN110554964A (zh) * 2019-09-03 2019-12-10 大连海事大学 基于深度强化学习的Web服务众包测试任务分配方法
CN111310454A (zh) * 2020-01-17 2020-06-19 北京邮电大学 一种基于领域迁移的关系抽取方法及装置
CN111639969A (zh) * 2020-05-28 2020-09-08 浙江大学 用于众包系统的动态激励计算方法、系统、设备及介质
CN111915231A (zh) * 2020-08-22 2020-11-10 武汉空心科技有限公司 一种基于深度学习的工作平台任务分配方法
CN111930476A (zh) * 2019-05-13 2020-11-13 百度(中国)有限公司 一种任务调度方法、装置及电子设备
CN112488188A (zh) * 2020-11-30 2021-03-12 浙江理工大学 一种基于深度强化学习的特征选择方法
CN112712282A (zh) * 2021-01-13 2021-04-27 东华大学 一种面向众包市场的基于适应度的任务分配方法
CN114282645A (zh) * 2021-11-24 2022-04-05 杭州电子科技大学 一种基于dqn的时空众包任务分配方法
CN115994675A (zh) * 2023-03-22 2023-04-21 北京语言大学 一种面向文本序列的高性价比众包工人选择方法及装置
CN116703108A (zh) * 2023-06-20 2023-09-05 暨南大学 一种基于top-k结构洞的众包问题选择方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504520A (zh) * 2014-12-23 2015-04-08 北京理工大学 一种基于神经网络的深空探测器自主任务规划方法
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
CN106415525A (zh) * 2014-04-30 2017-02-15 惠普发展公司,有限责任合伙企业 确定有效负荷估计
CN107145387A (zh) * 2017-05-23 2017-09-08 南京大学 一种车载网环境下基于深度强化学习的任务调度方法
CN107392252A (zh) * 2017-07-26 2017-11-24 上海城诗信息科技有限公司 计算机深度学习图像特征并量化感知度的方法
CN107798388A (zh) * 2017-11-23 2018-03-13 航天天绘科技有限公司 基于Multi‑Agent与DNN的测控资源调度分配的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106415525A (zh) * 2014-04-30 2017-02-15 惠普发展公司,有限责任合伙企业 确定有效负荷估计
CN104504520A (zh) * 2014-12-23 2015-04-08 北京理工大学 一种基于神经网络的深空探测器自主任务规划方法
CN106228314A (zh) * 2016-08-11 2016-12-14 电子科技大学 基于深度增强学习的工作流调度方法
CN107145387A (zh) * 2017-05-23 2017-09-08 南京大学 一种车载网环境下基于深度强化学习的任务调度方法
CN107392252A (zh) * 2017-07-26 2017-11-24 上海城诗信息科技有限公司 计算机深度学习图像特征并量化感知度的方法
CN107798388A (zh) * 2017-11-23 2018-03-13 航天天绘科技有限公司 基于Multi‑Agent与DNN的测控资源调度分配的方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
GEFEN D ETAL.: "How project description length and expected duration affect bidding and project success in crowdsourcing software development", 《JOURNAL OF SYSTEMS & SOFTWARE》 *
陈夏冰: "多机器人系统任务分配评价理论的研究与应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
陈攀: "基于众包模式的手机基站故障诊断与性能测评", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109409739A (zh) * 2018-10-19 2019-03-01 南京大学 一种基于部分可观测马尔科夫决策过程的众包平台任务分配方法
CN109409739B (zh) * 2018-10-19 2021-10-26 南京大学 一种基于pomdp模型的众包平台任务分配方法
CN109523499A (zh) * 2018-11-16 2019-03-26 济南浪潮高新科技投资发展有限公司 一种基于众包的多源融合全景建模方法
CN111930476A (zh) * 2019-05-13 2020-11-13 百度(中国)有限公司 一种任务调度方法、装置及电子设备
CN111930476B (zh) * 2019-05-13 2024-02-27 百度(中国)有限公司 一种任务调度方法、装置及电子设备
CN110458429A (zh) * 2019-07-29 2019-11-15 暨南大学 一种针对地理网点的智能任务分配和人员调度方法、系统
CN110554964B (zh) * 2019-09-03 2023-05-16 大连海事大学 基于深度强化学习的Web服务众包测试任务分配方法
CN110554964A (zh) * 2019-09-03 2019-12-10 大连海事大学 基于深度强化学习的Web服务众包测试任务分配方法
CN111310454A (zh) * 2020-01-17 2020-06-19 北京邮电大学 一种基于领域迁移的关系抽取方法及装置
CN111310454B (zh) * 2020-01-17 2022-01-07 北京邮电大学 一种基于领域迁移的关系抽取方法及装置
CN111639969A (zh) * 2020-05-28 2020-09-08 浙江大学 用于众包系统的动态激励计算方法、系统、设备及介质
CN111915231A (zh) * 2020-08-22 2020-11-10 武汉空心科技有限公司 一种基于深度学习的工作平台任务分配方法
CN112488188A (zh) * 2020-11-30 2021-03-12 浙江理工大学 一种基于深度强化学习的特征选择方法
CN112488188B (zh) * 2020-11-30 2023-12-19 浙江理工大学 一种基于深度强化学习的特征选择方法
CN112712282A (zh) * 2021-01-13 2021-04-27 东华大学 一种面向众包市场的基于适应度的任务分配方法
CN114282645A (zh) * 2021-11-24 2022-04-05 杭州电子科技大学 一种基于dqn的时空众包任务分配方法
CN115994675A (zh) * 2023-03-22 2023-04-21 北京语言大学 一种面向文本序列的高性价比众包工人选择方法及装置
CN116703108A (zh) * 2023-06-20 2023-09-05 暨南大学 一种基于top-k结构洞的众包问题选择方法和系统
CN116703108B (zh) * 2023-06-20 2024-03-08 暨南大学 一种基于top-k结构洞的众包问题选择方法和系统

Also Published As

Publication number Publication date
CN108596335B (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
CN108596335A (zh) 一种基于深度强化学习的自适应众包方法
Gareta et al. Forecasting of electricity prices with neural networks
CN107102969A (zh) 一种时间序列数据的预测方法和系统
CN103514457B (zh) 生态约束条件下土地利用结构优化的多目标改进差分进化模型
CN104636985A (zh) 一种改进bp神经网络的输电线路无线电干扰预测方法
WO2021088436A1 (zh) 一种用于多语言协同开发的项目调度方法及装置
Wilson et al. How to generate a thousand master plans: A framework for computational urban design
Li et al. A comparative study on prediction methods for China's medium-and long-term coal demand
CN106803135A (zh) 一种光伏发电系统输出功率的预测方法及装置
CN106909931A (zh) 一种用于机器学习模型的特征生成方法、装置和电子设备
Hall Innovation systems and capacity development: an agenda for North-South research collaboration?
CN110222908A (zh) 一种基于数据驱动的短期用电量预测方法
CN111309927A (zh) 一种基于知识图谱挖掘的个性化学习路径推荐方法及系统
CN104656620A (zh) 重型机床再制造综合评价系统
CN107704985A (zh) 一种动态策略的差分进化柔性车间优化调度方法
CN104657390B (zh) 一种问答平台实现方法和系统
CN114758180A (zh) 一种基于知识蒸馏的轻量化花卉识别方法
CN109408896B (zh) 一种污水厌氧处理产气量多元智能实时监控方法
CN107329887A (zh) 一种基于推荐系统的数据处理方法以及装置
CN116578569B (zh) 卫星时空轨迹数据关联分析方法
CN104182854A (zh) 一种面向企业能源管理系统的混合能耗测算的方法
CN117370766A (zh) 一种基于深度学习的卫星任务规划方案评估方法
CN104392317A (zh) 一种基于遗传文化基因算法的项目调度方法
CN116089710A (zh) 自适应深度知识追踪个性化学习推荐方法
CN114004065A (zh) 基于智能算法和环境约束下的变电站工程多目标优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant