CN114819660A - 一种动态演进的设计众包的人力资源任务匹配方法系统 - Google Patents
一种动态演进的设计众包的人力资源任务匹配方法系统 Download PDFInfo
- Publication number
- CN114819660A CN114819660A CN202210471049.XA CN202210471049A CN114819660A CN 114819660 A CN114819660 A CN 114819660A CN 202210471049 A CN202210471049 A CN 202210471049A CN 114819660 A CN114819660 A CN 114819660A
- Authority
- CN
- China
- Prior art keywords
- task
- resource
- value
- evaluation
- tasks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0631—Resource planning, allocation, distributing or scheduling for enterprises or organisations
- G06Q10/06311—Scheduling, planning or task assignment for a person or group
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/12—Computing arrangements based on biological models using genetic models
- G06N3/126—Evolutionary algorithms, e.g. genetic algorithms or genetic programming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/067—Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Human Resources & Organizations (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Genetics & Genomics (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开一种动态演进的设计众包的人力资源任务匹配方法和系统,属于资源任务规划领域。包括:S1.获取所有需要分配人力资源的任务作为待分配任务集,获取所有可用人力资源作为可用人力资源集;S2.对当前待分配任务集和可用人力资源集进行资源任务匹配;S3.监测是否有任务执行完成,若是,更新待分配任务集,接收对任务的执行情况的评价值,进入步骤S4,否则,继续监测,直至所有任务执行完成;S4.将任务的评价值输入至人力资源多维度评价模型,得到人力资源的最新特征属性,并更新可用人力资源集,进入步骤S2。本发明根据资源完成任务的实际情况对资源进行绩效评价,更新资源集中的资源状态,从而影响下一次资源任务匹配,提升资源任务匹配精准度。
Description
技术领域
本发明属于资源任务规划技术领域,更具体地,涉及一种动态演进的设计众包的人力资源任务匹配方法和系统。
背景技术
随着互联网技术的高速发展,众包作为一种开放式项目任务组织模式成为发展趋势。众包是指一个公司或机构把过去由员工执行的工作任务,以自由自愿的形式外包给非特定的(而且通常是大型的)大众网络的做法。这种模式降低了企业的创新成本,同时满足供需双方的需求,具有良好的发展前景。
复杂产品设计的众包工程往往由大量子任务组成,需要具有不同专业知识、不同领域的人员参与。随着产品的功能和结构越来越复杂,任务数量大幅提升,研发任务之间的关系也变得更加复杂。同时项目中还有大量的研发、设计、测试、运营等人员,项目人员掌握多种技能成为一种普遍现象。由于产品复杂度高、任务数量多且整个产品的研发存在不断的迭代,项目周期往往很长。因此产品研发项目调度问题变得愈加复杂且可行方案数量多,制定合理的调度方案以供企业管理人员决策参考具有重要意义。
符合现实的产品研发调度模型和高效精确的算法已然成为企业产品研发任务调度的关键所在。现有针对产品研发中的多技能人员项目调度方法中,为简化处理,通常基于静态评估法,即不考虑人力资源技能成长、服务态度变化、成本变化等因素,这与产品研发项目的实际执行情况不符,不能为众包任务匹配到最佳资源。
针对众包过程中人力资源参与者的不确定性(动态性)和众包任务的复杂性所带来的资源管理与评估、组合爆炸等问题,迫切需要一种资源/任务描述模型、动态演进匹配调度系统及方法,以提升众包过程中资源任务的匹配精准度。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种动态演进的设计众包的人力资源任务匹配方法和系统,其目的在于提升众包过程中资源任务的匹配精准度。
为实现上述目的,按照本发明的第一方面,提供了一种动态演进的设计众包的人力资源任务匹配方法,该方法包括:
S1.获取所有需要分配人力资源的任务作为待分配任务集,所述任务表征为任务本身的特征属性和任务对人力资源的需求,获取所有可用人力资源作为可用人力资源集,所述人力资源表征为人力资源本身的特征属性;
S2.对当前待分配任务集和当前可用人力资源集进行人力资源任务的匹配;
S3.监测是否有任务执行完成,若是,更新待分配任务集,接收对该任务的执行情况的评价值,进入步骤S4,否则,继续监测,直至所有任务执行完成;
S4.将该任务的评价值输入至人力资源多维度评价模型,得到人力资源的最新特征属性,并更新可用人力资源集,进入步骤S2。
优选地,所述任务本身的特征属性包括:任务编号、预估工作量、预算费用、难度系数、计划开始时间和计划结束时间,所述任务对人力资源的需求包括:任务所需专业领域和技能等级;所述人力资源本身的特征属性包括:人力资源编号、专业领域、技能等级、学习能力、服务态度、单位时间成本和完工及时率。
优选地,步骤S2中,采用以下匹配优先原则:
1)人力资源技能等级必须不低于任务所需技能等级;
2)同等情况下,综合评分高的优先匹配;
3)只考虑有空闲时间的人力资源;
所述综合评分的计算公式如下:
其中,Zn为综合评价值,Tn、Sn、Pn、Fn、Cn分别为人力资源的技能等级评价值、学习能力评估值、服务态度评估值、完工及时率评估值、单位时间成本值,均无量纲;分别为在该次任务匹配过程中所有可选人力资源的技能等级评价值平均值、学习能力评估值平均值、服务态度评估值平均值、完工及时率评估值平均值、单位时间成本值平均值,均无量纲;δ1、δ2、δ3、δ4、δ5分别为权重系数,均无量纲;下标n为第n次任务完成后获得的评价值。
优选地,步骤S2包括:
S21.初始化两个种群大小为NS的资源任务匹配解种群,所述种群为可行解集,所述可行解为待分配任务集和可用人力资源集的一次可行匹配方案;
S22.两个种群的Q值分别初始化为Q1和Q2;
S23.Q-learning智能体分别感知两个种群所处的状态s1、s2,所述状态为[ED,HV],其中,ED为帕累托解和理想点之间的平均距离,HV为非支配帕累托前沿支配的目标空间的体积;
S24.判断是否达到临界点,如果到达临界点,则根据动作选择策略为两个种群分别选择最佳的执行动作a1、a2,计算动作a1、a2的奖赏r1、r2,并根据动作执行的奖赏更新状态动作值函数的Q值,否则,应用随机策略选择动作执行动作a1、a2;
S25.在两个种群中分别执行动作a1、a2,生成新的种群,将两个新种群的帕累托解分别加入对方种群以加快种群进化;
S26.然后重复S23-S25,直到满足终止条件。
有益效果:本发明优选上述方式(QLCA)进行人力资源任务匹配,相对于现有其他匹配算法:(1)QLCA含有多个高效的搜索策略,QLCA能够捕捉当前的环境特点从而探测当前种群状态,搜索是一个从状态到动作(搜索策略)的函数,利用动作搜索过程的性能反馈指导算法在不同的状态下对迭代动作的选择以高效进行更优解的求解,相比智能算法中搜索策略无状态无知识的盲目迭代,搜索更具高效性。(2)QLCA存在两个种群的协同进化,两个种群能进行知识的交换,位于帕累托前沿性能好的个体添加到彼此的种群中以帮助更快速的进化。
优选地,ED的计算公式如下:
其中,PFc代表种群的帕累托解,|PFc|代表PFc中解的个数,d(sideal,si)为PFc中的第i个解si和理想点sideal的欧拉距离,分别为解si的第一个和第二个目标值分别除以对应目标的最坏值后的值,即归一化目标值,对于成本,最坏值等于每个任务分配最昂贵的人员完成;对于最坏工期,假定所有任务在要求的技能水平下完成,它们串行完成直接进行工期累加;和分别为理想点目标值归一值,归一计算同解si相同。
优选地,采用以下方式计算HV:
(1)反转优化目标,得到反转目标空间,目标反转计算如下:
其中,fj,worst分别为第j个目标的最坏值,fj为获得的解的第j个目标值,fj,revert为第j个目标反转后的目标值;
(2)在新的目标空间上计算HV,计算方式如下:
其中,X为算法求解得到的非占优解集,P为真实帕累托前沿对应的参考点,通常是各个目标上的最大值形成的向量,v(x,P)为非占优解集X中解x与参考点P之间形成空间的超体积,即,以解x和参考点P之间的连线作为对角线,构建的超立方体的体积。
优选地,所述奖赏的计算公式如下:
其中,HVoffspring为子代种群的HV值,HVparent为父代种群HV值;所述状态动作值函数的Q值更新公式如下:
其中,g为迭代数,是在状态s(g-1)时执行动作a(g-1)之后新的状态s(g)下对应的状态-动作对值中最大的Q值;r(g-1)是对状态s(g-1)下执行动作a(g-1)的奖赏;0≤α≤1为强化学习的学习率;0≤γ≤1为折扣系数,为未来的奖赏对当下情况的影响。
优选地,步骤S4中,所述人力资源多维度评价模型包括:
技能等级评价模型:
Tn=Tn-1*q+tn*(1-q)
服务态度评价模型:Pn=Pn-1*k+pn(1-k)
完工及时率评价模型:
Dn=Dn-1+dn
其中,Tn、Tn-1分别为第n次、第n-1次任务后的资源技能评价值,无量纲;q为[0,1]之间的系数;tn为第n次任务体现的技能评估值;gn为第n次任务所需的最低技能等级;hn为第n次任务难度系数;vn为第n次任务完成后的综合评价值,无量纲;dn为第n个任务的计划工期时长,d′n为第n个任务的实际工期时长,单位为人天;cn为第n个任务的预算费用,c′n为第n个任务的实际费用,单位为元;Sn、Sn-1分别为第n次、第n-1次任务后的资源学习能力评估值,无量纲;w为[0,1]之间的系数;β为标准能力提升系数,单位为1/人天;Cn、Cn-1分别为第n次、第n-1次任务后的资源单位时间成本评估值,无量纲;m为[0,1]之间的系数;α为标准成本系数,是行业平均单位时间成本,单位为元/人天;Pn、Pn-1分别为第n次、第n-1次任务后的服务态度评价指数,无量纲;pn为第n次任务的服务态度评价值;k为[0,1]之间的系数;Fn、Fn-1分别为第n次、第n-1次任务后的及时完成率指数;Dn、Dn-1分别为第n次、第n-1次任务后的累计计划工期时长,单位为人天。
有益效果:本发明优选上述人力资源多维度评价模型,由于本模型综合考虑了纵横两个方面的数据:1)纵向数据:充分考虑了人力资源动态演进过程中的成长数据,不简单使用单次任务完成情况评价资源特征。2)横向数据:在评价资源某单项指标时,考虑了任务多个特征对该指标的影响。使得人力资源评价客观准确性提高,进而提升任务资源匹配精准度的提升。
优选地,所述预训练好的人力资源多维度评价模型通过以下方式得到:
(1)收集人力资源任务匹配案例集;
(2)由专家对案例集中的任务、人力资源分别进行评价,得到任务评价值和人力资源评价值;
(3)从任务案例集中抽样生成样本案例集;
(4)通过最小二乘法计算人力资源多维度评价模型的系统参数,生成人力资源多维度评价模型。
为实现上述目的,按照本发明的第二方面,提供了一种动态演进的设计众包的人力资源任务匹配系统,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行上述动态演进的设计众包的人力资源任务匹配方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
本发明根据资源完成任务的实际情况对资源进行绩效评价,并更新资源集中的资源状态,从而影响下一次资源任务的匹配,能较好地支持设计众包过程中的资源任务匹配精准度。
附图说明
图1为本发明提供的一种动态演进的设计众包的人力资源任务匹配系统框图;
图2为本发明提供的资源任务匹配伪代码图;
图3为本发明提供一种动态演进的设计众包的人力资源任务匹配方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明提供一种动态演进的设计众包的人力资源任务匹配系统,包括:待分配任务集、可用资源集、资源任务匹配规划器、资源任务绩效评价器。
待分配任务集:包含所有需要分配资源的任务,并描述任务的特征属性及对资源的需求约束。所述任务特征属性信息包括但不限于:任务所需技能领域及技能等级、任务计划完成时间、任务预算工作量、任务预算费用等。
可用资源集:包括所有可用资源,特别是人力资源,并描述资源的多维度特征。所述资源特征属性信息包括但不限于:资源费率(工时单价)、资源服务态度指数、技能领域及等级、学习能力指数、完工及时率等。所述人力资源可以是设计人员,也可以是设计公司。
资源任务匹配规划器:使用启发式优化算法实现资源与任务的匹配调度。所述资源任务匹配规划器可采用遗传算法及强化学习算法进行匹配规划。
资源任务绩效评价器:基于任务绩效评价模型、资源绩效评价模型,根据资源完成任务的实际情况对资源进行绩效评价。其中所述任务绩效评价模型的评价指标包括服务态度、及时率、完成质量、工时费率、技能水平等;所述资源绩效评价模型的评价指标包括资源费率(工时单价)、资源服务态度指数、技能领域及等级、学习能力指数、完工及时率等。
资源任务匹配规划器
本发明采用基于Q-learning的双种群协同进化算法构建资源任务匹配规划器。如图2所示,首先采用种群初始化策略生成一定大小的两个资源任务匹配解种群,见第1行;这里的“种群”是指一次生成的可行解集,每一个可行解就是一个个体,多个可行解构成一个种群。本发明的资源任务匹配一个可行解指的是任务集与资源集的一次可行的匹配方案。“可行”的意思是指这个匹配方案满足所有预设的约束条件。但“可行”解并不一定是最优解,需要通过优化算法,寻找总成本较低,总时间较少的解。之后对两个种群的状态动作表中的Q值分别进行初始化,在这时每个状态下对各个动作的选择概率都是相等的,见第2行。在第4行,Q-learning智能体分别感知两个种群所处的状态;由于在最开始种群解质量相对低,搜索过程种群状态变化很大,不能正确反应动作策略好坏,因此设置一个临界点(设置为定义状态指标值的一定比例),在此之前在各动作间随机选择(见第8行),第5行为判断是否达到临界点。如果到达临界点则根据动作选择策略为两个种群分别选择最佳的执行动作,见第6行。执行动作生成新的种群(第10行),然后对策略(在之前的状态执行该动作)进行评估,并根据动作执行的奖赏更新状态动作值函数的Q值,见第12-13行。将两个种群的Pareto解分别加入对方种群以加快种群进化,见15-17行,然后重复上述操作直到满足终止条件(第3行)。
1)状态定义
针对动态演进资源与任务匹配调度问题,使用基于种群的求解优化方法,对于每次迭代中的新的种群,描述为Q-learning中的状态。种群的非支配解组成的帕累托解集是问题最终的解,收敛性和多样性是主要的衡量帕累托解质量的指标。因此,环境状态通过下面的两个多目标指标欧拉距离(ED)、超体积(HV)进行描述。
欧拉距离(ED):这个指标是用来衡量求解算法获得的帕累托解和理想点之间的平均距离,反映了获得的帕累托解的收敛性-更低的值意味着潜在的帕累托前沿(帕累托解在目标空间的映射)更接近真实的帕累托。因为动态演进资源与任务匹配调度问题优化的目标是最小化成本和工期,所以本发明中理想点考虑为(0,0)。这个指标的值计算如下:
式中,PFc代表种群的帕累托解,|PFc|代表PFc中解的个数,d(sideal,si)表示PFc中的第i个解si和理想点sideal的欧拉距离,分别表示解si的第一个和第二个目标值分别除以对应目标的最坏值后的值,即归一化目标值。对于成本,最坏值等于每个任务分配最昂贵的人员完成;对于最坏工期,假定所有任务在要求的技能水平下完成,它们串行完成直接进行工期累加。和分别表示理想点目标值归一值,归一计算同解si相同。
值得注意的是描述环境状态中的ED通过初始种群的ED进行归一化。归一化的ED分成五个区间([0,0.6],(0.6,0.7],(0.7,0.8],(0.8,0.9],(0.9,+∞)以使用在状态定义表中。
式中,EDg和ED0是第g次迭代和初始状态的平均欧拉距离。
超体积(HV):这个指标是用来评价获得的帕累托解的收敛性和多样性的指标。这个指标是用来计算被获得的非支配帕累托前沿支配的目标空间的区域/体积。也被称作空间覆盖尺寸(SSC,Size of Space Covered)。
本发明HV计算时需要将获得的目标值进行反转,因此优化目标变为求反转目标的最大值,取(0,0)点为参考点,于是HV的值越大代表获得的帕累托解的更好的收敛性、多样性。目标反转计算如下:
式中,fj,worst分别表示第j个目标的最坏值,fj表示获得的解的第j个目标值,fj,revert表示第j个目标反转后的目标值。对于本发明涉及到的成本和工期目标的最坏值计算如上ED中所述。
令X记为算法求解得到的非占优解集,P记为真实帕累托前沿对应的参考点,通常是各个目标上的最大值形成的向量。那么,非占优解集到真实帕累托前沿的超体积,即HV指标,具体计算方式如下:
其中,v(x,P)表示非占优解集X中解x与参考点P之间形成空间的超体积,即:以解x和参考点P之间的连线作为对角线,构建的超立方体的体积。因此,HV指标也可以同时评估占优解集的收敛性和多样性。非占优解集的HV指标数值较大意味着,该解集在收敛性和多样性的方面更加接近真实帕累托前沿,是较好的非占优解集。
同样的,HV通过预设的最大超体积HVmax进行归一化。归一化的HV被分成5个区间([0,0.7],(0.7,0.8],[0.8,0.9],(0.9,1],(1,+∞)。
式中,HVg是第g次迭代的种群超体积。
关于上述的归一化的ED和HV,本发明总共定义了25种状态,状态定义见表1。
表1
2)动作描述
基于Q-learning的双种群协同进化算法中的动作算子由本发明设计的动作算子(LSKS)和3个多目标智能算法(NSGA-II、SMS-EMOA、NTGA)组成。
本发明设计的动作算子(LSKS)包含两个部分,分别是局部搜索(LocalSearch)和知识搜索(Knowledge based Search)。局部搜索主要对当前解的领域进行搜索以寻找潜在的更优解,知识搜索是利用当前种群解的知识对解的搜索进行指导。本发明采用的是单编码结构,在搜索阶段主要是对任务人员分配进行搜索,任务的排序在调度生成器中完成。
局部搜索在解中维护每个任务j对应的可分配人员数量初始时根据任务可执行人员数进行初始化;之后调度生成器解码过程中,由于人员技能水平提升,可以分配给原来不能执行的技能水平要求更高的任务,那么该任务的可分配人员集会加入该人员,统计此时该任务的可执行人员数对进行更新。
局部搜索过程使用人员重新分配算子,参考果蝇算法[30]在局部搜索对每个解使用重分配算子生成NS个邻解,邻解中质量最好的替换原来的解。人员重新分配算子从每个解的任务索引链表TL中随机选择一个大于1的任务j,然后对该任务重新生成一个基因编码满足保证分配新的人员,θj为任务j原来的基因编码。通过保证了局部搜索中能够高效的进行人员重分配。
知识搜索是利用以往的精英解的人员分配知识对搜索进行指导。搜索过程需要维护一个全局的每个任务j对应的可分配人员数量项目调度前根据任务可执行人员数进行初始化;如果调度生成器解码时任务对应的大于时,对进行更新。搜索利用知识为每个解重新生成基因。基因为一个0到1的小数,因此对每个任务j基因对应的区间范围按照份等分,分别为基因在每个区间中生成的概率初始化下式。如果更新则重新进行概率初始化(在算法迭代中将会快速的稳定)。
每一代概率更新使用种群中NE个最好的解进行,如下列式中所示:
式中,g为迭代数,∈代表知识积累的学习率,NE是用作更新知识的精英解数量,为精英解s的任务j对应的基因。使用知识指导不仅可以指导任务选择原本就可以执行任务的人员,对于由于人员学习技能水平提升而加到任务的可执行人员集中的人员也会指导选择。
对于求解多目标优化问题,涌现了很多优秀的算法。因此本发明将这些优秀的算法作为单个算子即对应强化学习中的动作,在不同的环境下选择合适的算法进行搜索。快速非支配排序遗传算法二代(NSGA-II)由Kalyanmoy Deb等提出,是一种经典的多目标算法,被广泛应用于求解多目标优化问题。基于超体积指标选择的进化多目标算法(SMS-EMOA)是一种将超体积指标同非支配排序混合作为选择算子旨在优化迭代过程中支配的超体积的算法,本发明将其同SPEA2、ε-MOEA和NSGA-II的仿真计算试验对比证明其在覆盖性及超体积指标上占优。因此NSGA-II和SMS-EMOA用作本发明的动作算子。对于多技能人员项目调度(MSRCPSP)问题,Laszczyk等通过对NSGA-II的选择算子进行修改,同时加入一种复制预防的方法,实验结果证明提出的非支配锦标赛遗传算法(NTGA)提高了解的收敛性、spread、均匀性(uniformity)。因此也将NTGA作为强化学习的动作算子。
3)状态-动作对表
在表2中显示了状态-动作对。Q-learning方法使用这个表决定在一个给定的状态下基于给定的选择策略选择哪个动作去执行。
表2
4)动作选择策略
对于一个给定的环境状态s(g),一个选择策略π(s(g))被智能体用来选择动作。对于每个候选的动作ai(i=1,…,NA,其中NA是候选动作的数量),定义了一个选择概率p(s(g),ai),该概率由状态-动作表中的Q-value确定,公式如下:
5)动作奖赏
在执行完动作a(g)后,一个对应的奖赏r(g)用来评估在状态s(g)下执行的动作的性能,同时用来更新对应的状态-动作对值Q(s(g),a(g))。在多目标优化问题中,超体积(HV)是一个通用的衡量获得的非支配帕累托前沿解的收敛性和多样性指标。更大的HV指明更好的收敛性和多样性。在此,将子代种群相比父代种群HV值的提高比率作为在状态s(g)下动作a(g)的奖励r(g):
强化学习的目标就是最大化求解获得的总的奖励。
6)Q值更新
采用Q-learning中的规则来对状态-动作对的Q值Q(s(g-1),a(g-1))更新,如下:
其中,是在状态s(g-1)时执行动作a(g-1)之后新的状态s(g)下对应的状态-动作对值中最大的Q值;r(g-1)是对状态s(g-1)下执行动作a(g-1)的奖赏;0≤α≤1表示强化学习的学习率;0≤γ≤1表示折扣系数,表示未来的奖赏对当下情况的影响。
资源任务绩效评价器
资源任务绩效指标评价器的作用是基于任务绩效评价模型、资源绩效评价模型,根据资源完成任务的实际情况对资源进行绩效评价。
任务绩效评价模型
任务绩效评价模型的评价指标定义为:包括难度系数、服务态度、绩效评价、实际费用、实际工作量等。
难度系数是反映任务完工后所体现的技术难度指标。难度系数在任务完工后由评审专家给出。服务态度指数值域范围为0.5~1.5,值为1为服务态度中等,大于1,为服务态度超预期,小于1为服务态度低于预期。值越大为服务态度越好,值越低为服务态度越差。服务态度由项目任务委托人在任务完成后给出。
绩效评价指数值域范围定义为0.5~1.5,值越大为交付质量越好。绩效评价指数在任务完工后由任务委托人及评审专家给出。
实际费用为最终的项目决算支出费用,量纲单位为(元)。
实际工作量为项目验收时计算的项目实际发生的总工作量,量纲单位为(人天);
资源绩效评价模型
通过专家模式建立以任务-资源精准匹配为目标的资源多维度指标模型。本发明建立了资源的技能水平、学习能力、服务成本、服务态度、任务完成及时率五个维度指标模型。
(1)资源技能水平评价模型
其中资源可能包含多个技能,每种技能具有一个水平度量。资源所拥有的技能水平是否满足任务的技能需求,是任务-资源匹配的最根本约束。
Tn=Tn-1*q+tn*(1-q)
其中:Tn、Tn-1分别为第n次、第n-1次任务后的资源技能评价值,无量纲;q为[0,1]之间的系数,根据样本集数据进行最小二乘法计算得到。tn为第n次任务体现的技能评估值;gn为第n次任务所需的最低技能等级;hn为第n次任务难度系数;vn为第n次任务完成后的综合评价值(无量纲);dn为第n个任务的计划工期时长,d′n为第n个任务的实际工期时长,量纲为(人天);cn为第n个任务的预算费用,c′n为第n个任务的实际费用,量纲为(元)。
(2)资源学习能力评价模型
资源具有学习能力,能在任务执行过程中积累经验,提升技能水平。资源学习能力的高低反映了资源通过执行任务提升技能的效率。
其中,Sn、Sn-1分别为第n次、第n-1次任务后的资源学习能力评估值,无量纲;w为[0,1]之间的系数,根据样本集数据进行最小二乘法计算得到。Tn、Tn-1分别为第n次、第n-1次任务后的资源技能评估值;d′n为第n个任务的实际工期时长,量纲为(人天);β为标准能力提升系数,量纲为(1/人天),该值通过样本数据集进行机器学习得到。也可以直接取β=0.01。
(3)资源单位时间成本评价模型
资源具有单位时间成本。资源的使用成本将是任务匹配是重要考虑的因素之一。
其中,Cn、Cn-1分别为第n次、第n-1次任务后的资源单位时间成本评估值,无量纲;m为[0,1]之间的系数,根据样本集数据进行最小二乘法计算得到。Tn、Tn-1分别为第n次、第n-1次任务后的资源技能评估值;dn为第n个任务的计划工期时长,量纲为(人天);c′n为第n个任务的实际成本,量纲为(元)。α为标准成本系数,是行业平均单位时间成本,量纲为(元/人天)。该值由样本数据集统计得到。
(4)资源服务态度评价模型
服务态度是资源使用方对资源的主观评价。服务态度的好坏是影响任务资源匹配的因素之一。
Pn=Pn-1*k+pn(1-k)
其中,Pn、Pn-1分别为第n次、第n-1次任务后的服务态度评价指数,无量纲;pn为第n次任务的服务态度评价值。k为[0,1]之间的系数,根据样本集数据进行最小二乘法计算得到。
(5)资源及时完成率评价模型
及时完成率是资源工作效率及履约质量的重要评价指标。也是影响任务资源匹配的关键因素之一。
Dn=Dn-1+dn
其中,Fn、Fn-1分别为第n次、第n-1次任务后的及时完成率指数;dn为第n个任务的计划工期时长,d′n为第n个任务的实际工期时长,量纲单位为(人天);Dn、Dn-1分别为第n次、第n-1次任务后的累计计划工期时长,量纲单位为(人天)。
(6)资源综合评价模型
在进行任务资源匹配时,在技能水平、单位时间成本、学习能力、服务态度、及时完成率均满足任务单项要求的情况下,如果还存在多个资源可以选择,则需要通过资源的综合评价值从高到低选择。
其中,Zn为综合评价值,该值是在任务资源匹配过程中动态计算的,是相对于其他竞争资源的一个综合评分。每次计算的结果会因为竞争资源的不同而不同。Tn、Sn、Pn、Fn、Cn分别为资源最新的技能评价值、学习能力评估值、服务态度评估值、及时完成率评估值、单位时间成本值,均无量纲;分别为在该次任务匹配过程中所有可选资源的技能评价值平均值、学习能力评估值平均值、服务态度评估值平均值、及时完成率评估值平均值、单位时间成本值平均值,均无量纲;δ1、δ2、δ3、δ4、δ5分别为权重系数,均无量纲。δ1、δ2、δ3、δ4、δ5的取值由样本集机器学习得到。
如图3所示,本发明提供一种动态演进的设计众包的人力资源任务匹配方法,包括以下步骤:
步骤一:输入待分配任务集、可用资源集。其中任务和资源的特征描述信息必须完备;
步骤二:通过资源任务匹配规划器,基于优先规则的启发式算法进行资源任务匹配,生成资源任务匹配方案;
步骤三:等待项目任务执行后,项目任务委托人对项目任务的完成情况依据任务评估模型进行评价,生成任务评价指标的评价值;
步骤四:根据资源完成的任务评价值,基于资源多维度评价模型对资源特征值进行重新计算,得到资源最新特征属性值;
步骤五:用资源最新特征属性值更新资源库中的资源特征值,以便下次匹配任务时使用。
进一步,步骤四中所述资源多维度评价模型的产生步骤为:
1)收集资源任务案例集;
2)由专家组对案例集中的任务、资源进行评价给出特征值。
3)从任务案例集中抽样生成样本案例集;
4)通过最小二乘法计算资源评价模型的系统参数,生成评价模型。
实施例
设有任务集描述如表3所示:
表3
其中,每一个任务都需要具有某种技能的资源。如任务t1需要专业领域A,等级3.0以上技术才能胜任。预估工作量为30人天,预算费用为10000元,难度系数为0.9,计划开始时间为2019年9月3日,计划结束时间为2019年10月4日。
资源集描述如表4所示:
表4
资源集中有四个备选资源,U1、U2、U3、U4。其中每个资源都有专业技能及学习能力、服务态度、成本指数、及时率等特征指标。这些特征指标是经过历史任务评价后获得。对于新增加资源,其评价指标由自评及专家评价后得到一个初始值。如U4是一个新增加的资源。其专业技能等级及学习能力描述为“A:1.0:1.0,C:4.0:1.0”,为该资源分别掌握两种专业技能A和C,U4的A技能水平为1.0,A技能学习能力为1.0;U4的C技能水平为4.0,C技能的学习能力为1.0。U4的服务态度初始值给的是1.0,成本指数为300(默认工时费),任务完成及时率初始值为1.00。
U1、U2、U3的服务态度、成本指数、及时率是系统依据其历史任务计算得到的。
任务集数据、资源集数据可以使用excel文件形式存放在工作目录下。
资源任务匹配
调用资源任务匹配规划器,指定任务集数据文件、资源集数据文件。资源任务匹配规划器根据内置的优化匹配算法,生成资源任务匹配解。
匹配优先规则:
1)资源技能等级必须高于任务所需技能等级;
2)同等情况下,成本、服务态度、及时率综合评分较高的优先匹配;
3)只考虑有空闲时间的资源。
资源任务匹配解如表5所示:
表5
任务执行后对任务进行评价
资源与任务匹配后,开始执行任务。任务完成后,由任务委托人及任务评审专家对任务的执行情况进行评价,产生如表6所示的评价结果。
表6
根据任务评价值计算资源评价值并更新。
基于对所执行任务的评价,使用资源多维度评估模型对资源的各项指标进行重新评估和更新。
表7
资源在执行完每一个任务后,其评价指标都会依据资源多维度评估模型进行评估重新计算,计算的结果如表7所示。
如资源U1,在执行完任务t1后,其A技能的专业等级被评估为4.44,A技能的学习能力被评估为0.44,服务态度被评估为0.93,成本费率被评估为382.50,及时完成指数被评估为0.96。
当U1在完成任务t2后,在上一次评估的基础上,再次进行评估调整,得到新的评价值。这些评价值将在下一次任务分配是产生影响。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种动态演进的设计众包的人力资源任务匹配方法,其特征在于,该方法包括:
S1.获取所有需要分配人力资源的任务作为待分配任务集,所述任务表征为任务本身的特征属性和任务对人力资源的需求,获取所有可用人力资源作为可用人力资源集,所述人力资源表征为人力资源本身的特征属性;
S2.对当前待分配任务集和当前可用人力资源集进行人力资源任务的匹配;
S3.监测是否有任务执行完成,若是,更新待分配任务集,接收对该任务的执行情况的评价值,进入步骤S4,否则,继续监测,直至所有任务执行完成;
S4.将该任务的评价值输入至人力资源多维度评价模型,得到人力资源的最新特征属性,并更新可用人力资源集,进入步骤S2。
2.如权利要求1所述的方法,其特征在于,所述任务本身的特征属性包括:任务编号、预估工作量、预算费用、难度系数、计划开始时间和计划结束时间,所述任务对人力资源的需求包括:任务所需专业领域和技能等级;所述人力资源本身的特征属性包括:人力资源编号、专业领域、技能等级、学习能力、服务态度、单位时间成本和完工及时率。
3.如权利要求2所述的方法,其特征在于,步骤S2中,采用以下匹配优先原则:
1)人力资源技能等级必须不低于任务所需技能等级;
2)同等情况下,综合评分高的优先匹配;
3)只考虑有空闲时间的人力资源;
所述综合评分的计算公式如下:
4.如权利要求1至3任一项所述的方法,其特征在于,步骤S2包括:
S21.初始化两个种群大小为NS的资源任务匹配解种群,所述种群为可行解集,所述可行解为待分配任务集和可用人力资源集的一次可行匹配方案;
S22.两个种群的Q值分别初始化为Q1和Q2;
S23.Q-learning智能体分别感知两个种群所处的状态s1、s2,所述状态为[ED,HV],其中,ED为帕累托解和理想点之间的平均距离,HV为非支配帕累托前沿支配的目标空间的体积;
S24.判断是否达到临界点,如果到达临界点,则根据动作选择策略为两个种群分别选择最佳的执行动作a1、a2,计算动作a1、a2的奖赏r1、r2,并根据动作执行的奖赏更新状态动作值函数的Q值,否则,应用随机策略选择动作执行动作a1、a2;
S25.在两个种群中分别执行动作a1、a2,生成新的种群,将两个新种群的帕累托解分别加入对方种群以加快种群进化;
S26.然后重复S23-S25,直到满足终止条件。
8.如权利要求1所述的方法,其特征在于,步骤S4中,所述人力资源多维度评价模型包括:
技能等级评价模型:
Tn=Tn-1*q+tn*(1-q)
服务态度评价模型:Pn=Pn-1*k+pn(1-k)
完工及时率评价模型:
Dn=Dn-1+dn
其中,Tn、Tn-1分别为第n次、第n-1次任务后的资源技能评价值,无量纲;q为[0,1]之间的系数;tn为第n次任务体现的技能评估值;gn为第n次任务所需的最低技能等级;hn为第n次任务难度系数;vn为第n次任务完成后的综合评价值,无量纲;dn为第n个任务的计划工期时长,d′n为第n个任务的实际工期时长,单位为人天;cn为第n个任务的预算费用,c′n为第n个任务的实际费用,单位为元;Sn、Sn-1分别为第n次、第n-1次任务后的资源学习能力评估值,无量纲;w为[0,1]之间的系数;β为标准能力提升系数,单位为1/人天;Cn、Cn-1分别为第n次、第n-1次任务后的资源单位时间成本评估值,无量纲;m为[0,1]之间的系数;α为标准成本系数,是行业平均单位时间成本,单位为元/人天;Pn、Pn-1分别为第n次、第n-1次任务后的服务态度评价指数,无量纲;pn为第n次任务的服务态度评价值;k为[0,1]之间的系数;Fn、Fn-1分别为第n次、第n-1次任务后的及时完成率指数;Dn、Dn-1分别为第n次、第n-1次任务后的累计计划工期时长,单位为人天。
9.如权利要求8所述的方法,其特征在于,所述预训练好的人力资源多维度评价模型通过以下方式得到:
(1)收集人力资源任务匹配案例集;
(2)由专家对案例集中的任务、人力资源分别进行评价,得到任务评价值和人力资源评价值;
(3)从任务案例集中抽样生成样本案例集;
(4)通过最小二乘法计算人力资源多维度评价模型的系统参数,生成人力资源多维度评价模型。
10.一种动态演进的设计众包的人力资源任务匹配系统,其特征在于,包括:计算机可读存储介质和处理器;
所述计算机可读存储介质用于存储可执行指令;
所述处理器用于读取所述计算机可读存储介质中存储的可执行指令,执行权利要求1至9任一项所述的动态演进的设计众包的人力资源任务匹配方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210471049.XA CN114819660A (zh) | 2022-04-28 | 2022-04-28 | 一种动态演进的设计众包的人力资源任务匹配方法系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210471049.XA CN114819660A (zh) | 2022-04-28 | 2022-04-28 | 一种动态演进的设计众包的人力资源任务匹配方法系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114819660A true CN114819660A (zh) | 2022-07-29 |
Family
ID=82509778
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210471049.XA Pending CN114819660A (zh) | 2022-04-28 | 2022-04-28 | 一种动态演进的设计众包的人力资源任务匹配方法系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114819660A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117057763A (zh) * | 2023-10-12 | 2023-11-14 | 杭州灵兔信息技术服务有限公司 | 一种人力资源优化配置方法及系统 |
-
2022
- 2022-04-28 CN CN202210471049.XA patent/CN114819660A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117057763A (zh) * | 2023-10-12 | 2023-11-14 | 杭州灵兔信息技术服务有限公司 | 一种人力资源优化配置方法及系统 |
CN117057763B (zh) * | 2023-10-12 | 2024-01-09 | 杭州灵兔信息技术服务有限公司 | 一种人力资源优化配置方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shen et al. | A Q-learning-based memetic algorithm for multi-objective dynamic software project scheduling | |
Zhang et al. | An efficient multiobjective genetic algorithm for mixed-model assembly line balancing problem considering demand ratio-based cycle time | |
US8250007B2 (en) | Method of generating precedence-preserving crossover and mutation operations in genetic algorithms | |
Vega-Velázquez et al. | A survey on the software project scheduling problem | |
Chen et al. | A competence-time-quality scheduling model of multi-skilled staff for IT project portfolio | |
Nikghadam et al. | A survey of partner selection methodologies for virtual enterprises and development of a goal programming–based approach | |
Abbasianjahromi et al. | A new decision making model for subcontractor selection and its order allocation | |
CN109559033B (zh) | 一种面向云设计制造模式的社交化团队成员优选方法 | |
Atli et al. | Fuzzy resource‐constrained project scheduling using taboo search algorithm | |
CN114580678A (zh) | 一种产品维修资源调度方法和系统 | |
CN114819660A (zh) | 一种动态演进的设计众包的人力资源任务匹配方法系统 | |
Cao et al. | An adaptive multi-strategy artificial bee colony algorithm for integrated process planning and scheduling | |
Dodangeh et al. | Best project selection by using of Group TOPSIS method | |
Barbati et al. | A general space-time model for combinatorial optimization problems (and not only) | |
Alcaraz et al. | Bi-objective resource-constrained project scheduling problem with time-dependent resource costs | |
Yadav et al. | A budget and deadline aware task assignment scheme for crowdsourcing environment | |
CN115271130B (zh) | 面向船舶主动力设备维修订单的动态调度方法及系统 | |
CN113220437B (zh) | 一种工作流多目标调度方法及装置 | |
Karimi et al. | A new approach based on genetic algorithm for prioritizing quality scenarios in enterprise architecture evaluation | |
Nouri et al. | Meta-heuristics algorithm for two-machine no-wait flow-shop scheduling problem with the effects of learning | |
Nigar | Multi-objective dynamic software project scheduling: an evolutionary approach for uncertain environments | |
Haroune et al. | A hybrid heuristic for a two-agent multi-skill resource-constrained scheduling problem | |
Zhao et al. | An Iterative Greedy Algorithm With $ Q $-Learning Mechanism for the Multiobjective Distributed No-Idle Permutation Flowshop Scheduling | |
Filatova et al. | A Multi-Contractor Approach for MLRCPSP with the Graph Structure Optimization | |
Schmitz et al. | It's about time: Online Macrotask Sequencing in Expert Crowdsourcing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |