CN113905606A - 基于深度强化学习的贴片机贴装调度模型训练方法 - Google Patents
基于深度强化学习的贴片机贴装调度模型训练方法 Download PDFInfo
- Publication number
- CN113905606A CN113905606A CN202111070340.8A CN202111070340A CN113905606A CN 113905606 A CN113905606 A CN 113905606A CN 202111070340 A CN202111070340 A CN 202111070340A CN 113905606 A CN113905606 A CN 113905606A
- Authority
- CN
- China
- Prior art keywords
- mounting
- network
- time
- dqn1
- dqn2
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K13/00—Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
- H05K13/04—Mounting of components, e.g. of leadless components
- H05K13/046—Surface mounting
- H05K13/0465—Surface mounting by soldering
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05K—PRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
- H05K13/00—Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
- H05K13/08—Monitoring manufacture of assemblages
- H05K13/085—Production planning, e.g. of allocation of products to machines, of mounting sequences at machine or facility level
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Operations Research (AREA)
- Supply And Installment Of Electrical Components (AREA)
Abstract
本发明涉及贴装控制领域,提供一种基于深度强化学习的贴片机贴装调度模型训练方法,包括:S1:设置贴装循环方案,计算获取贴装循环方案的贴装时间;S2:构建贴片机贴装调度模型,贴片机贴装调度模型包括:DQN1网络和DQN2网络;S3:获取贴装训练数据,将贴装训练数据和贴装时间输入DQN1网络进行循环计算,计算结束后获得取料方案;S4:将取料方案和贴装时间输入DQN2网络进行循环计算,计算结束后获得训练好的贴片机贴装调度模型。本发明构建的两阶段训练模型,所求解的取料方案和贴装方案相比实际生产使用的贪心算法更精确,也即新方案的贴装耗时更少;两阶段训练模型可以在复杂动态环境下,不需要重新训练,直接生成比较优的取料和贴装方案。
Description
技术领域
本发明涉及贴装控制领域,尤其涉及一种基于深度强化学习的贴片机贴装调度模型训练方法。
背景技术
表面贴装技术(Surface mounted technology,SMT)在印刷电路板的制造中起着关键作用,且应用越来越广泛,其中,表面贴装调度优化是SMT的关键核心技术。目前,贴片机贴装调度优化一般分为两个子问题处理:一个是吸嘴和喂料器的分配问题,另一个是元件贴装顺序优化问题。
针对贴装调度优化问题,学者较多使用线性规划方法、启发式优化算法和基于种群的随机优化算法,这些算法在一定程度上解决了贴片机贴装效率优化问题,但这些方法大都属于离线调度优化方法,更适合于相对稳定的环境。这些方法并未考虑到实际生产环境的动态性和多样性,难以进行在线优化。
另外,在贴片机的实际生产过程中,不可避免地会受到振动、噪声等环境因素、生产计划调整等影响,导致设备各零部件之间相对位置的变化,进而影响设备生产进度及正常运转,导致以前的优化方案并不适用,需要重新或者重头优化。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于,解决现有技术中,未考虑到实际生产环境的动态性和多样性,难以进行在线优化的技术问题。
为实现上述目的,本发明提供一种基于深度强化学习的贴片机贴装调度模型训练方法,包括:
S1:设置贴装循环方案,计算获取所述贴装循环方案的贴装时间;
S2:构建贴片机贴装调度模型,所述贴片机贴装调度模型包括:DQN1网络和DQN2网络;
S3:获取贴装训练数据,将所述贴装训练数据和所述贴装时间输入所述DQN1网络进行循环计算,计算结束后获得取料方案;
S4:将所述取料方案和所述贴装时间输入所述DQN2网络进行循环计算,计算结束后获得训练好的贴片机贴装调度模型。
优选地,所述贴装时间包括:取料运动用时tpick、识别用时trecong、贴装运动用时tplace、返回喂料器用时treturn和取料贴料用时tnozzle;
所述取料运动用时tpick的表达式如公式一所示:
其中,cycle_num表示贴装循环次数;vx表示x轴电机的移动速度;i表示取料次数;disi,i-1表示第i次取料和第i-1次取料时,贴装头所在位置的相对距离;
所述识别用时trecong的表达式如公式二所示:
trecong=max(disx/vx,disy/vy)+recong(cycle_num)
其中,disx表示贴装头拾取完所有元件后所在位置到识别相机所在位置的x轴距离;disy表示贴装头拾取完所有元件后所在位置到识别相机所在位置的y轴距离;vy表示y轴电机的移动速度;函数recong()表示识别相机对所有元件进行识别的用时;
所述贴装运动用时tplace的表达式如公式三所示:
其中,disx,j,j-1表示待贴装点j与待贴装点j-1在x轴方向的距离;disy,j,j-1表示待贴装点j与待贴装点j-1在y轴方向的距离;
所述返回喂料器用时treturn的表达式如公式四所示:
treturn=max(disx/vx,disy/vy)
所述取料贴料用时tnozzle的表达式如公式五所示:
tnozzle=cycle_num×t_place+pick_num×t_pick
其中,pick_num表示取料循环次数;t_pick表示吸嘴的一次吸取元件用时;t_place表示一次贴装元件用时;
所述贴装时间tsum的表达式如公式六所示:
其中,Ncycle表示贴装流程循环次数。
优选地,步骤S3具体为:
S31:获取所述贴装训练数据,包括:贴片机机型、吸嘴信息和喂料器信息;
S32:通过所述贴装训练数据和所述贴装时间对所述DQN1网络进行设置,获得设置好的DQN1网络;
S33:将所述贴装训练数据输入所述设置好的DQN1网络进行循环计算,获得所述取料方案。
优选地,步骤S32具体为:
S321:设定DQN1网络的状态空间,所述DQN1网络的状态空间包括:喂料器的使用状态和吸嘴的使用状态;
所述喂料器的使用状态的表达式为:
P1=(k1,k2,...,kM),M∈{1,...,m}
其中,M表示喂料器序号;m表示喂料器总数;kM表示喂料器M上剩余待贴装元件数量;所述吸嘴的使用状态的表达式为:
C1=(b1,b2,...,bN),bN=0 or 1,N∈{1,...,n}
其中,N表示吸嘴序号;n表示吸嘴总数;bN表示吸嘴N是否已在本贴装循环拾取了元件,1表示拾取了元件,0表示没有拾取元件;
所述DQN1网络的状态空间的表达式为:
S1=[P1,C1];
S322:设定DQN1网络的动作空间,所述DQN1网络的动作空间的表达式为:
a1=[N,M]
其中,N表示吸嘴序号,n表示吸嘴总数;
S323:设置DQN1网络的奖励函数,所述DQN1网络的奖励函数的表达式为:
S324:设置DQN1网络的状态转移概率,具体为:执行所述DQN1网络的动作空间后,对所述DQN1网络的状态空间进行相应调整,之后进入新的循环。
优选地,步骤S4具体为:
S41:通过所述取料方案和所述贴装时间对所述DQN2网络进行设置,获得设置好的DQN2网络;
S42:将所述取料方案输入所述设置好的DQN2网络进行循环计算,获得所述训练好的贴片机贴装调度模型。
优选地,步骤S41具体为:
S411:设定DQN2网络的状态空间,所述DQN2网络的状态空间的表达式为:
S2=[C2,P2]
P2表示喂料器运动的环境状态,表达式为:P2=(p′l,p′n),p′l表示上一贴装循环最后一次在喂料器上的取料位置,p′n表示下一贴装循环第一次在喂料器上的取料位置;
S412:设置DQN2网络的动作空间,所述DQN2网络的动作空间的表达式为:
a2={1,2,...,nc}
S413:设置DQN2网络的奖励函数,所述DQN2网络的奖励函数的表达式为:
R2=tg-(trecong+tplace+treturn)
其中,tg代表循环采用贪心算法后的模拟识别用时,模拟贴装运动用时和模拟返回喂料器用时之和;
S414:构建DQN2网络的状态转移概率,具体为:执行所述DQN2网络的动作空间后,对所述DQN2网络的状态空间进行相应调整,之后进入新的循环。
本发明具有以下有益效果:
1、基于本发明构建的两阶段训练模型,所求解的取料方案和贴装方案相比实际生产使用的贪心算法更精确,也即新方案的贴装耗时更少;
2、两阶段训练模型可以在复杂动态环境下,不需要重新训练,直接生成比较优的取料和贴装方案。
附图说明
图1为本发明实施例方法流程图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,本发明提供一种基于深度强化学习的贴片机贴装调度模型训练方法,包括:
S1:设置贴装循环方案,计算获取所述贴装循环方案的贴装时间;
S2:构建贴片机贴装调度模型,所述贴片机贴装调度模型包括:DQN1网络和DQN2网络;
S3:获取贴装训练数据,将所述贴装训练数据和所述贴装时间输入所述DQN1网络进行循环计算,计算结束后获得取料方案;
S4:将所述取料方案和所述贴装时间输入所述DQN2网络进行循环计算,计算结束后获得训练好的贴片机贴装调度模型。
本实施例中,当机器生产环境布置完毕且每个贴装循环都已经确定,就可以对任意方案的贴装时间进行分析计算,所述贴装时间包括:取料运动用时tpick、识别用时trecong、贴装运动用时tplace、返回喂料器用时treturn和取料贴料用时tnozzle;
(1)取料运动用时:
取料运动时,贴装头在喂料台上运动并吸取元件;在多个贴装循环中,其在取料时仅仅在x方向上进行位移,也即只有x轴电机发生了运动;
所述取料运动用时tpick的表达式如公式一所示:
其中,cycle_num表示贴装循环次数;vx表示x轴电机的移动速度;i表示取料次数;disi,i-1表示第i次取料和第i-1次取料时,贴装头所在位置的相对距离;
(2)识别用时:
贴装头拾取元件后,首先将元件运送到元件识别相机处进行识别,这一段运动既包括x轴方向的位移,也包括y轴方向的运动;由于贴片机贴装头的运动控制是由x轴电机和y轴电机分别控制的,在这两个方向的位移也是分别进行的,故贴装头的所有运动都应该用切比雪夫距离计算更为合适,但是由于x轴电机和y轴电机的运动速度可能不同,因此最终采用贴装头x轴方向和y轴方向上运动耗时较长者为这一阶段的运动用时:
所述识别用时trecong的表达式如公式二所示:
trecong=max(disx/vx,disy/vy)+recong(cycle_num)
其中,disx表示贴装头拾取完所有元件后所在位置到识别相机所在位置的x轴距离;disy表示贴装头拾取完所有元件后所在位置到识别相机所在位置的y轴距离(disy是一个定值);vy表示y轴电机的移动速度;函数recong()表示识别相机对所有元件进行识别的用时,其与当前贴装头上拾取的元件数量呈现正相关的关系;
(3)贴装运动用时:
在识别完毕后,贴装头运动至PCB板开始进行贴装,按照已经规划好的顺序,依次运动至待贴装元件的贴装位置进行贴装,这一阶段的运动用时即为贴装运动用时;
所述贴装运动用时tplace的表达式如公式三所示:
其中,disx,j,j-1表示待贴装点j与待贴装点j-1在x轴方向的距离;disy,j,j-1表示待贴装点j与待贴装点j-1在y轴方向的距离;
(4)返回喂料器用时:
所有元件贴装完毕后,贴装头返回下一循环第一次取料所在位置,所述返回喂料器用时treturn的表达式如公式四所示:
treturn=max(disx/vx,disy/vy)
(5)取料贴料用时:
上述(1)至(4)计算的都是贴装头的运动时间以及识别相机的识别时间,除了这些以外,贴装头通过吸嘴将元件从喂料器吸取以及将元件贴装在PCB板上也需要消耗不少的时间,这一部分用时即为取料贴料用时;
所述取料贴料用时tnozzle的表达式如公式五所示:
tnozzle=cycle_num×t_place+pick_num×t_pick
其中,pick_num表示取料循环次数,这里用pick_num进行计算是因为在取料过程中存在同取现象,即贴装头同时吸取多个元件以减少取料用时,在这种情况下,吸嘴在循环内的取料次数并不等于循环内的元件总数;t_pick表示吸嘴的一次吸取元件用时;t_place表示一次贴装元件用时;
所述贴装时间tsum的表达式如公式六所示:
其中,Ncycle表示贴装流程循环次数。
本实施例中,步骤S3具体为:
S31:获取所述贴装训练数据,包括:贴片机机型、吸嘴信息和喂料器信息;
S32:通过所述贴装训练数据和所述贴装时间对所述DQN1网络进行设置,获得设置好的DQN1网络;
S33:将所述贴装训练数据输入所述设置好的DQN1网络进行循环计算,获得所述取料方案。
本实施例中,步骤S32具体为:
S321:设定DQN1网络的状态空间,所述DQN1网络的状态空间包括:喂料器的使用状态和吸嘴的使用状态;
所述喂料器的使用状态的表达式为:
P1=(k1,k2,...,kM),M∈{1,...,m}
其中,M表示喂料器序号;m表示喂料器总数;kM表示喂料器M上剩余待贴装元件数量;所述吸嘴的使用状态的表达式为:
C1=(b1,b2,...,bN),bN=0 or 1,N∈{1,...,n}
其中,N表示吸嘴序号;n表示吸嘴总数;bN表示吸嘴N是否已在本贴装循环拾取了元件,1表示拾取了元件,0表示没有拾取元件;P1和C1均为数组;
所述DQN1网络的状态空间的表达式为:
S1=[P1,C1];
S322:设定DQN1网络的动作空间,每次选中一个吸嘴吸取某个喂料器上的元件,故执行的动作也包括两个部分,所述DQN1网络的动作空间的表达式为:
a1=[N,M]
其中,N表示吸嘴序号,n表示吸嘴总数;
S323:设置DQN1网络的奖励函数,奖励函数表示环境对上一次动作产生的反馈的评价,由于优化目标是使总贴装时间最少,而取料时的动作主要影响的是取料运动用时和取料用时,也就是使吸嘴取料的方式与元件在喂料器上的布置尽量匹配以减少取料次数和喂料器的移动距离,这两部分的用时用t表示;
不过此时并非所有动作都是合法的,对于不符合取料规范的动作,例如吸嘴类型与喂料器上的元件类型不匹配,需要给与惩罚,此外,奖励函数应该与总用时负相关;
为了使奖惩更加能反映选择动作的性能,对奖励和惩罚大小进行归一化;经过观察可以发现,在一个贴装循环的过程中,最长和最短的取料运动用时以及最长和最短的取料用时都是可以求得的;显然,当贴装循环中只有一个取料循环时,取料运动用时为0,是最短的;而当取料运动用时最长时,需要横跨整个喂料器,这个时长用表示;
当只有一个取料循环时,pick_num等于1,此时取料用时最短,当每个吸嘴需要单独一个取料循环取料时(即没有任何同取发生),pick_num最大时,此时取料用时最长;
所述DQN1网络的奖励函数的表达式为:
S324:设置DQN1网络的状态转移概率,具体为:执行所述DQN1网络的动作空间后,对所述DQN1网络的状态空间进行相应调整,之后进入新的循环;
具体实现中,对于吸嘴N,将对应的bN标记为0(初始化为0,0表示本循环未取料);对于喂料器M,将对应的kM的大小减一;发生以下几种情况则视为不满足取料规范,避免选择该动作:
(1)bN等于1,也即该吸嘴已分配元件;
(2)kM小于0,也即该类元件已全部贴装完成;
(3)吸嘴N与喂料器M上元件类型不匹配。
本实施例中,步骤S4具体为:
S41:通过所述取料方案和所述贴装时间对所述DQN2网络进行设置,获得设置好的DQN2网络;
S42:将所述取料方案输入所述设置好的DQN2网络进行循环计算,获得所述训练好的贴片机贴装调度模型。
本实施例中,步骤S41具体为:
S411:设定DQN2网络的状态空间,所述DQN2网络的状态空间的表达式为:
S2=[C2,P2]
P2表示喂料器运动的环境状态,贴料方案的优化不仅涉及贴料运动用时,还包括喂料器到PCB板的运动用时和从PCB板返回用时,对于飞行相机模式下的贴装,拾取完本轮所有元件后,贴装头直接前往PCB板进行贴装,这样一来,用时的计算不仅需要知道当前贴装循环的待贴装元件坐标,还分别需要需要知道上一贴装循环最后一次在喂料器上的取料位置p′l,以及下一贴装循环第一次在喂料器上的取料位置p′n,将这两个因素也作为一组环境状态纳入考量;
其表达式为:P2=(p′l,p′n),p′l表示上一贴装循环最后一次在喂料器上的取料位置,p′n表示下一贴装循环第一次在喂料器上的取料位置;
对于无飞行相机下的贴装,贴装头取料后送往固定的识别相机处进行识别,无需知道上一贴装循环的贴装信息,此时喂料器运动的环境状态的表达式为:P2=(p′n);
S412:设置DQN2网络的动作空间,所述DQN2网络的动作空间的表达式为:
a2={1,2,...,nc}
S413:设置DQN2网络的奖励函数,贴料方案优化主要影响的是识别用时,贴装运动用时和返回喂料器用时,为了对比贴料方案的效果,将奖励函数设计为采用贪心算法后的模拟识别用时tg与采取动作后的用时之差;
所述DQN2网络的奖励函数的表达式为:
R2=tg-(trecong+tplace+treturn)
其中,tg代表循环采用贪心算法后的模拟识别用时,模拟贴装运动用时和模拟返回喂料器用时之和;
S414:构建DQN2网络的状态转移概率,具体为:执行所述DQN2网络的动作空间后,对所述DQN2网络的状态空间进行相应调整,之后进入新的循环;
具体实现中,对于第c次决策,执行动作nc后,环境状态发生相应变化,对应的xnc和ync置为0,该元件视为已被贴装(坐标0,0往往是作为PCB板基准位置mark点的坐标位置,一般来说,这个地方不会有待贴装元件,因此这样的设置不会发生冲突),选择动作时,避免选择已贴装的元件;当完成本次贴装循环最后一个贴装元件的选择后,将p′l置为该元件所在喂料器位置,将p′n置下一贴装循环最左侧元件所在的喂料器位置(贴装头从返回喂料器最左侧的待取元件处开始从左至右完成取料)。
本发明的关键点在于:
1、两阶段优化模型的构建;
2、奖罚函数的设置;对于某个动作,当产生的策略比较好时,给予奖励,奖励值与时间负相关;当动作为非法动作时,给予一定的惩罚。
本发明实施后的效果如下:
1、本发明实验对象和实验条件
仿真对象是路远智能装备有限公司旗下的CPM-Ⅱ型贴片机,该型号贴片机为拱架式贴片机,贴装头上一共可以安装8个吸嘴(吸嘴间距为16mm),单边挂料42站,也即前后喂料台上一共有84个喂料槽(喂料槽的间距为16mm),贴片机仿真环境与实际打板数据基于该型号机器模拟和运行。实验所使用的的PCB板如表1所示:
表1各PCB板相关参数
实验仿真环境如表2所示:
表2实验仿真环境
实验参数设置如表3所示:
表3实验中的参数设置
2、本发明实验效果
利用DQN和贪心算法对测试集中的各PCB板的优化效果进行了对比,优化结果如表4所示。
表4针对20个PCB板样例的优化结果对比
从表中可以看出,对比贪心算法,DQN算法(黑体部分)总体表现更好,尤其是当这些PCB板的元件数量和元件种类都比较适中时,DQN算法相比贪心算法优势更大。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为标识。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,包括:
S1:设置贴装循环方案,计算获取所述贴装循环方案的贴装时间;
S2:构建贴片机贴装调度模型,所述贴片机贴装调度模型包括:DQN1网络和DQN2网络;
S3:获取贴装训练数据,将所述贴装训练数据和所述贴装时间输入所述DQN1网络进行循环计算,计算结束后获得取料方案;
S4:将所述取料方案和所述贴装时间输入所述DQN2网络进行循环计算,计算结束后获得训练好的贴片机贴装调度模型。
2.根据权利要求1所述的基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,所述贴装时间包括:取料运动用时tpick、识别用时trecong、贴装运动用时tplace、返回喂料器用时treturn和取料贴料用时tnozzle;
所述取料运动用时tpick的表达式如公式一所示:
其中,cycle_num表示贴装循环次数;vx表示x轴电机的移动速度;i表示取料次数;disi,i-1表示第i次取料和第i-1次取料时,贴装头所在位置的相对距离;
所述识别用时trecong的表达式如公式二所示:
trecong=max(disx/vx,disy/vy)+recong(cycle_num)
其中,disx表示贴装头拾取完所有元件后所在位置到识别相机所在位置的x轴距离;disy表示贴装头拾取完所有元件后所在位置到识别相机所在位置的y轴距离;vy表示y轴电机的移动速度;函数recong()表示识别相机对所有元件进行识别的用时;
所述贴装运动用时tplace的表达式如公式三所示:
其中,disx,j,j-1表示待贴装点j与待贴装点j-1在x轴方向的距离;disy,j,j-1表示待贴装点j与待贴装点j-1在y轴方向的距离;
所述返回喂料器用时treturn的表达式如公式四所示:
treturn=max(disx/vx,disy/vy)
所述取料贴料用时tnozzle的表达式如公式五所示:
tnozzle=cycle_num×t_place+pick_num×t_pick
其中,pick_num表示取料循环次数;t_pick表示吸嘴的一次吸取元件用时;t_place表示一次贴装元件用时;
所述贴装时间tsum的表达式如公式六所示:
其中,Ncycle表示贴装流程循环次数。
3.根据权利要求2所述的基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,步骤S3具体为:
S31:获取所述贴装训练数据,包括:贴片机机型、吸嘴信息和喂料器信息;
S32:通过所述贴装训练数据和所述贴装时间对所述DQN1网络进行设置,获得设置好的DQN1网络;
S33:将所述贴装训练数据输入所述设置好的DQN1网络进行循环计算,获得所述取料方案。
4.根据权利要求3所述的基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,步骤S32具体为:
S321:设定DQN1网络的状态空间,所述DQN1网络的状态空间包括:喂料器的使用状态和吸嘴的使用状态;
所述喂料器的使用状态的表达式为:
P1=(k1,k2,...,kM),M∈{1,...,m}
其中,M表示喂料器序号;m表示喂料器总数;kM表示喂料器M上剩余待贴装元件数量;
所述吸嘴的使用状态的表达式为:
C1=(b1,b2,...,bN),bN=0or1,N∈{1,...,n}
其中,N表示吸嘴序号;n表示吸嘴总数;bN表示吸嘴N是否已在本贴装循环拾取了元件,1表示拾取了元件,0表示没有拾取元件;
所述DQN1网络的状态空间的表达式为:
S1=[P1,C1];
S322:设定DQN1网络的动作空间,所述DQN1网络的动作空间的表达式为:
a1=[N,M]
其中,N表示吸嘴序号,n表示吸嘴总数;
S323:设置DQN1网络的奖励函数,所述DQN1网络的奖励函数的表达式为:
S324:设置DQN1网络的状态转移概率,具体为:执行所述DQN1网络的动作空间后,对所述DQN1网络的状态空间进行相应调整,之后进入新的循环。
5.根据权利要求2所述的基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,步骤S4具体为:
S41:通过所述取料方案和所述贴装时间对所述DQN2网络进行设置,获得设置好的DQN2网络;
S42:将所述取料方案输入所述设置好的DQN2网络进行循环计算,获得所述训练好的贴片机贴装调度模型。
6.根据权利要求5所述的基于深度强化学习的贴片机贴装调度模型训练方法,其特征在于,步骤S41具体为:
S411:设定DQN2网络的状态空间,所述DQN2网络的状态空间的表达式为:
S2=[C2,P2]
P2表示喂料器运动的环境状态,表达式为:P2=(p′l,p′n),p′l表示上一贴装循环最后一次在喂料器上的取料位置,p′n表示下一贴装循环第一次在喂料器上的取料位置;
S412:设置DQN2网络的动作空间,所述DQN2网络的动作空间的表达式为:
a2={1,2,...,nc}
S413:设置DQN2网络的奖励函数,所述DQN2网络的奖励函数的表达式为:
R2=tg-(trecong+tplace+treturn)
其中,tg代表循环采用贪心算法后的模拟识别用时,模拟贴装运动用时和模拟返回喂料器用时之和;
S414:构建DQN2网络的状态转移概率,具体为:执行所述DQN2网络的动作空间后,对所述DQN2网络的状态空间进行相应调整,之后进入新的循环。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111070340.8A CN113905606B (zh) | 2021-09-13 | 2021-09-13 | 基于深度强化学习的贴片机贴装调度模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111070340.8A CN113905606B (zh) | 2021-09-13 | 2021-09-13 | 基于深度强化学习的贴片机贴装调度模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113905606A true CN113905606A (zh) | 2022-01-07 |
CN113905606B CN113905606B (zh) | 2022-09-30 |
Family
ID=79028040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111070340.8A Active CN113905606B (zh) | 2021-09-13 | 2021-09-13 | 基于深度强化学习的贴片机贴装调度模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113905606B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116095980A (zh) * | 2022-11-08 | 2023-05-09 | 哈尔滨工业大学 | 一种基于最大二分配的贴片机吸嘴分配方法 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060052893A1 (en) * | 2003-01-23 | 2006-03-09 | Takuya Yamazaki | Method for optimization of an order of component mounting, apparatus using the same, and mounter |
CN102883548A (zh) * | 2012-10-16 | 2013-01-16 | 南京航空航天大学 | 基于量子神经网络的贴片机元器件贴装调度优化方法 |
CN103717007A (zh) * | 2014-01-22 | 2014-04-09 | 哈尔滨工业大学 | 基于聚类分析与遗传算法的多吸嘴贴片机贴装工艺优化方法 |
CN104156780A (zh) * | 2014-07-09 | 2014-11-19 | 华南理工大学 | 一种基于协同进化的拱架型贴片机集成优化方法 |
WO2017004626A1 (en) * | 2015-07-01 | 2017-01-05 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for providing reinforcement learning in a deep learning system |
EP3357650A2 (en) * | 2017-02-06 | 2018-08-08 | Seiko Epson Corporation | Control device, robot, and robot system |
US20180260498A1 (en) * | 2017-03-09 | 2018-09-13 | Alphaics Corporation | SYSTEM AND METHOD FOR DESIGNING SYSTEM ON CHIP (SoC) CIRCUITS USING SINGLE INSTRUCTION MULTIPLE AGENT (SIMA) INSTRUCTIONS |
CN108961236A (zh) * | 2018-06-29 | 2018-12-07 | 国信优易数据有限公司 | 电路板缺陷检测模型的训练方法及装置、检测方法及装置 |
CN109002903A (zh) * | 2018-06-12 | 2018-12-14 | 昆明理工大学 | 一种印刷电路板表面贴装生产线的优化调度方法 |
US20200342356A1 (en) * | 2019-04-25 | 2020-10-29 | Fanuc Corporation | Machine learning device, numerical control system, and machine learning method |
CN112261864A (zh) * | 2020-10-12 | 2021-01-22 | 合肥安迅精密技术有限公司 | 一种求解贴片机贴装优化问题的种群初始化方法及系统 |
WO2021100630A1 (ja) * | 2019-11-18 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 配置支援方法、学習済みモデルの生成方法、プログラム、配置支援システム及び作業システム |
CN113128770A (zh) * | 2021-04-23 | 2021-07-16 | 新疆大学 | 基于dqn的不确定车间环境下物料配送实时优化方法 |
-
2021
- 2021-09-13 CN CN202111070340.8A patent/CN113905606B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060052893A1 (en) * | 2003-01-23 | 2006-03-09 | Takuya Yamazaki | Method for optimization of an order of component mounting, apparatus using the same, and mounter |
CN102883548A (zh) * | 2012-10-16 | 2013-01-16 | 南京航空航天大学 | 基于量子神经网络的贴片机元器件贴装调度优化方法 |
CN103717007A (zh) * | 2014-01-22 | 2014-04-09 | 哈尔滨工业大学 | 基于聚类分析与遗传算法的多吸嘴贴片机贴装工艺优化方法 |
CN104156780A (zh) * | 2014-07-09 | 2014-11-19 | 华南理工大学 | 一种基于协同进化的拱架型贴片机集成优化方法 |
WO2017004626A1 (en) * | 2015-07-01 | 2017-01-05 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for providing reinforcement learning in a deep learning system |
EP3357650A2 (en) * | 2017-02-06 | 2018-08-08 | Seiko Epson Corporation | Control device, robot, and robot system |
US20180260498A1 (en) * | 2017-03-09 | 2018-09-13 | Alphaics Corporation | SYSTEM AND METHOD FOR DESIGNING SYSTEM ON CHIP (SoC) CIRCUITS USING SINGLE INSTRUCTION MULTIPLE AGENT (SIMA) INSTRUCTIONS |
CN109002903A (zh) * | 2018-06-12 | 2018-12-14 | 昆明理工大学 | 一种印刷电路板表面贴装生产线的优化调度方法 |
CN108961236A (zh) * | 2018-06-29 | 2018-12-07 | 国信优易数据有限公司 | 电路板缺陷检测模型的训练方法及装置、检测方法及装置 |
US20200342356A1 (en) * | 2019-04-25 | 2020-10-29 | Fanuc Corporation | Machine learning device, numerical control system, and machine learning method |
WO2021100630A1 (ja) * | 2019-11-18 | 2021-05-27 | パナソニックIpマネジメント株式会社 | 配置支援方法、学習済みモデルの生成方法、プログラム、配置支援システム及び作業システム |
CN112261864A (zh) * | 2020-10-12 | 2021-01-22 | 合肥安迅精密技术有限公司 | 一种求解贴片机贴装优化问题的种群初始化方法及系统 |
CN113128770A (zh) * | 2021-04-23 | 2021-07-16 | 新疆大学 | 基于dqn的不确定车间环境下物料配送实时优化方法 |
Non-Patent Citations (2)
Title |
---|
王珂等: "景深约束下的深度强化学习机器人路径规划", 《华中科技大学学报(自然科学版)》 * |
邓泽峰: "贴片机优化算法研究与挑战", 《2019中国高端SMT学术会议论文集》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116095980A (zh) * | 2022-11-08 | 2023-05-09 | 哈尔滨工业大学 | 一种基于最大二分配的贴片机吸嘴分配方法 |
CN116095980B (zh) * | 2022-11-08 | 2023-08-22 | 哈尔滨工业大学 | 一种基于最大二分配的贴片机吸嘴分配方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113905606B (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113905606B (zh) | 基于深度强化学习的贴片机贴装调度模型训练方法 | |
CN103659838B (zh) | 用机器人取出散装物品的装置和方法 | |
JP7154823B2 (ja) | 情報処理装置、ロボット制御装置、情報処理方法及びプログラム | |
CN104156780B (zh) | 一种基于协同进化的拱架型贴片机集成优化方法 | |
WO2006064680A1 (ja) | 動作時間短縮方法、動作時間短縮装置、プログラムおよび部品実装機 | |
CN108698228A (zh) | 任务创建装置及作业系统以及作业机器人的控制装置 | |
JP5683006B2 (ja) | 部品実装装置、情報処理装置、情報処理方法及び基板製造方法 | |
EP3684156B1 (en) | Component feeding system | |
JP4584960B2 (ja) | 部品実装方法 | |
JP3466141B2 (ja) | 部品実装順序最適化方法、その装置及び部品実装装置 | |
WO2021100630A1 (ja) | 配置支援方法、学習済みモデルの生成方法、プログラム、配置支援システム及び作業システム | |
CN111897327A (zh) | 多移动机器人控制/分派模型获取方法、装置、电子设备 | |
JP2005353776A (ja) | 部品実装機の部品搭載最適化方法 | |
CN109530840A (zh) | 一种焊接材料设置方法、焊锡机控制装置和存储介质 | |
CN111586992A (zh) | 一种基于最近插入法的贴片机贴装路径规划方法 | |
JP2010135463A (ja) | 部品実装装置および部品実装方法 | |
JP4804402B2 (ja) | 部品実装順序決定方法 | |
JP2010010272A (ja) | 部品実装装置および部品実装方法 | |
JP4767884B2 (ja) | パーツフィーダ種別決定方法およびパーツフィーダ種別決定装置 | |
JP2004146641A (ja) | 電子部品実装ラインにおける設備構成最適化シミュレーション方法 | |
JP5384122B2 (ja) | データ作成方法、部品実装方法、データ作成装置及び部品実装機 | |
CN109196971A (zh) | 元件安装系统 | |
Chen et al. | Component placement process optimization for multi-head surface mounting machine based on tabu search and improved shuffled frog-leaping algorithm | |
CN109591012A (zh) | 加强学习方法、机器人和存储介质 | |
CN116736690A (zh) | 基于锚点选取粒子群算法的贴片机贴装路径优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |