CN108406767A - 面向人机协作的机器人自主学习方法 - Google Patents
面向人机协作的机器人自主学习方法 Download PDFInfo
- Publication number
- CN108406767A CN108406767A CN201810149541.9A CN201810149541A CN108406767A CN 108406767 A CN108406767 A CN 108406767A CN 201810149541 A CN201810149541 A CN 201810149541A CN 108406767 A CN108406767 A CN 108406767A
- Authority
- CN
- China
- Prior art keywords
- robot
- task
- learning
- mankind
- subtask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明提供面向人机协作的机器人自主学习方法,包括面向人机协作的目标理解方法和任务学习算法,它允许机器人能快速地在人类辅助下认知目标和通过模仿人类动作达到快速掌握新技能的目的。包括步骤:(1)在目标理解层面设计面向人机协作的深度学习方法引入人的经验知识;(2)在任务学习层面引入人类的评价和反馈优化强化学习算法。本发明结合人类的实时反馈和教导,使得机器人能有效地进行自学习和在线学习。
Description
技术领域
本发明属于机器人运动领域,特别涉及一种面向人机协作的机器人自主学习方法。
背景技术
面向人机协作的机器人自主学习需要探讨如何结合人类的实时反馈和教导,使得机器人能有效地进行自学习和在线学习。一方面,机器人的传感能力有限,单靠传感数据不足以推断环境状态,以及作业的最佳策略。由于机器人的信息具有不完整性,完全自主学习往往会出现“维数灾难”问题,在学习过程中如何利用人类伙伴的信息更好地了解环境,并做出更优的决策是值得研究的问题。另一方面,类似于师傅带徒弟的人机协作模式需要平衡机器人在探索和被教导之间的关系。过多的探索可能影响系统的性能,但可以提高学习的效率;反之,则影响学习的效果。探索和教导如何有效地均衡结合,如何根据实际环境动态地进行调整,从而更灵活地解决单纯依靠人或机器人无法解决的问题,都是值得探讨的问题。
发明内容
本发明的目的在于克服现有技术存在的上述不足,提出了面向人机协作的机器人自主学习方法,包括面向人机协作的目标理解方法和任务学习算法,它允许机器人能快速地在人类辅助下认知目标和通过模仿人类动作达到快速掌握新技能的目的。
面向人机协作的机器人自主学习方法,包括如下步骤:
S1、在目标理解层面设计面向人机协作的深度学习方法引入人的经验知识;
S2、在任务学习层面引入人类的评价和反馈优化强化学习算法。
所述步骤S1具体包括:
首先,使用一个缩减的特征集来确定最佳候选集,然后,使用一个更大、更可靠的特征集来排列这些候选集。但是,这些方法需要设计两个独立的特征集合,而且在设计一个小的第一阶段特征集使得能快速计算和足够可靠地产生一个好的第二阶段候选检测集是比较困难的。利用深度学习可以简单地训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果,从而避免复杂的手动调整特征值。
在人机协作模式中,机器人借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,以更新机器人的学习网络参数;在人类的协作下,一方面机器人可以通过人类的描述更好地了解未知物体的特征(Features);另一方面,机器人可以通过人类的共享经验正确地认识物体(Ground-truth);在学习过程中,目标是求出使识别精度最佳的参数;这里,将人类辅助过程中产生的输入数据作为一组特征值(Features)及标签数据(Ground-truth);在最深层的学习工作中使用两阶段学习方法;在第一阶段中,使用无监督特征学习方法(无监督学习算法)来初始化隐藏层的权值,在训练前加权是避免过度拟合的关键;采用了稀疏自动编码(SAE)算法,定义关于隐藏单元激活的稀疏惩罚函数,使用参数控制它的权值;在学习算法的监督阶段,需要获得分类器权值及用于识别的隐藏层的权值进行精细化;在两级检测的推理过程中,根据网络参数,首先用一个较小的网络产生一组相似目标的最高概率的分类,然后用一个具有一组独立参数的较大网络来重新排列这些分类集,并且得到一个最好的类型;两级模型学习的唯一的不同是用相同的方法来独立地得到这两组参数。
所述步骤S2包括以下步骤:
在任务学习过程中,本发明采用上述的“以人为中心”的行为感知技术对机器人进行示教。通过人机交互模块,机器人可以通过用户的手势和语言感知用户的意图。在示教前,用户先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人。用户通过陈述任务名称、子任务的数量和操作对象的属性等,同时包括用相应的手势动作辅助语音进行相关的讲解。用户接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而可以整合所有子任务的信息。通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,可选择通过诸如“首先”、“然后”、“下一个子任务”等语音对子任务片段进行分割,在子任务的安排时,充分利用用户的经验帮助机器人对任务的轨迹进行分段规划。在用户对整个任务进行描述后,机器人利用运动学原理通过分段的示教任务轨迹进行学习。机器人如果在完成学习任务的过程中遇到困难,就向人类寻求帮助。接着,机器人将学习到的任务付诸实际并完善自身的知识库。机器人可以通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过用户的实时反馈不断地修正自身学习到的任务经验。假设原始子任务结构和任何机器传感器数据没有任何关联。通过优化函数确定最终的轨迹片段与原始子任务的分配关系,其目标函数可设计为J=P-Ω-Ψ+Φ+H,其中P为性能参数,Ω是一种当没有任何子任务被分成至少一个轨迹片段的情况下执行的惩罚函数。Ψ也是一种惩罚函数,用于处理机器人在任务执行过程中是否包含用户的干预。Φ是一种奖励函数,用于奖励可以细分的轨迹片段。H为奖励函数,用于奖励机器人能自主地完成对应的子任务。通过由粗到精搜索的思想,最终的轨迹片段都可以对应到所有的原始子任务中,从而完成机器人的任务学习过程。
强化学习中,一方面,机器人需要尽可能地选择不同的动作,以找到最优的策略,即探索(Exploration),另一方面又要考虑选择值函数最大的动作,以得到大的奖赏,即利用(Exploitation)。探索对学习是非常重要的,只有通过探索才能确定最优策略,而过多的探索会降低系统的性能,影响学习的速度。因此,学习过程中需要在获得知识和获得高的回报之间进行折中,即对探索和利用进行平衡。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种面向人机协作的机器人自主学习方法来完成机器人目标识别和任务学习,借鉴了评价与指导在人类的学习成长过程的作用,并进一步研究对应的学习规律在机器人自主学习中的运用,建立了面向人机协作的目标理解和任务理解模型。
附图说明
图1是面向人机协作的机器人自主学习方法流程图。
具体实施方式
以下结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此,以下若有未特别详细说明之处,均是本领域技术人员可参照现有技术实现或理解的。
面向人机协作的机器人自主学习方法,包括如下步骤:
S1、在目标理解层面设计面向人机协作的深度学习方法引入人的经验知识;
S2、在任务学习层面引入人类的评价和反馈优化强化学习算法。
所述步骤S1具体包括:
首先,使用一个缩减的特征集来确定最佳候选集,然后,使用一个更大、更可靠的特征集来排列这些候选集。但是,这些方法需要设计两个独立的特征集合,而且在设计一个小的第一阶段特征集使得能快速计算和足够可靠地产生一个好的第二阶段候选检测集是比较困难的。利用深度学习可以简单地训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果,从而避免复杂的手动调整特征值。
在人机协作模式中,机器人借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,以更新机器人的学习网络参数;在人类的协作下,一方面机器人可以通过人类的描述更好地了解未知物体的特征(Features);另一方面,机器人可以通过人类的共享经验正确地认识物体(Ground-truth);在学习过程中,目标是求出使识别精度最佳的参数;这里,将人类辅助过程中产生的输入数据作为一组特征值(Features)及标签数据(Ground-truth);在最深层的学习工作中使用两阶段学习方法;在第一阶段中,使用无监督特征学习方法(无监督学习算法)来初始化隐藏层的权值,在训练前加权是避免过度拟合的关键;采用了稀疏自动编码(SAE)算法,定义关于隐藏单元激活的稀疏惩罚函数,使用参数控制它的权值;在学习算法的监督阶段,需要获得分类器权值及用于识别的隐藏层的权值进行精细化;在两级检测的推理过程中,根据网络参数,首先用一个较小的网络产生一组相似目标的最高概率的分类,然后用一个具有一组独立参数的较大网络来重新排列这些分类集,并且得到一个最好的类型;两级模型学习的唯一的不同是用相同的方法来独立地得到这两组参数。
所述步骤S2包括以下步骤:
在任务学习过程中,本发明采用上述的“以人为中心”的行为感知技术对机器人进行示教。通过人机交互模块,机器人可以通过用户的手势和语言感知用户的意图。在示教前,用户先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人。用户通过陈述任务名称、子任务的数量和操作对象的属性等,同时包括用相应的手势动作辅助语音进行相关的讲解。用户接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而可以整合所有子任务的信息。通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,可选择通过诸如“首先”、“然后”、“下一个子任务”等语音对子任务片段进行分割,在子任务的安排时,充分利用用户的经验帮助机器人对任务的轨迹进行分段规划。在用户对整个任务进行描述后,机器人利用运动学原理通过分段的示教任务轨迹进行学习。机器人如果在完成学习任务的过程中遇到困难,就向人类寻求帮助。接着,机器人将学习到的任务付诸实际并完善自身的知识库。机器人可以通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过用户的实时反馈不断地修正自身学习到的任务经验。假设原始子任务结构和任何机器传感器数据没有任何关联。通过优化函数确定最终的轨迹片段与原始子任务的分配关系,其目标函数可设计为J=P-Ω-Ψ+Φ+H,其中P为性能参数,Ω是一种当没有任何子任务被分成至少一个轨迹片段的情况下执行的惩罚函数。Ψ也是一种惩罚函数,用于处理机器人在任务执行过程中是否包含用户的干预。Φ是一种奖励函数,用于奖励可以细分的轨迹片段。H为奖励函数,用于奖励机器人能自主地完成对应的子任务。通过由粗到精搜索的思想,最终的轨迹片段都可以对应到所有的原始子任务中,从而完成机器人的任务学习过程。
强化学习中,一方面,机器人需要尽可能地选择不同的动作,以找到最优的策略,即探索(Exploration),另一方面又要考虑选择值函数最大的动作,以得到大的奖赏,即利用(Exploitation)。探索对学习是非常重要的,只有通过探索才能确定最优策略,而过多的探索会降低系统的性能,影响学习的速度。因此,学习过程中需要在获得知识和获得高的回报之间进行折中,即对探索和利用进行平衡。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.面向人机协作的机器人自主学习方法,其特征在于,包括如下步骤:
S1、在目标理解层面设计面向人机协作的深度学习方法引入人的经验知识;
S2、在任务学习层面引入人类的评价和反馈优化强化学习算法。
2.根据权利要求1所述的面向人机协作的机器人自主学习方法,其特征在于,所述步骤S1具体包括:
首先,使用一个缩减的特征集来确定最佳候选集,然后,使用另一个特征集来排列这些候选集;因此,需利用深度学习训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果;
在人机协作模式中,机器人借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,以更新机器人的学习网络参数;在人类的协作下,一方面机器人通过人类的描述更好地了解未知物体的特征(Features);另一方面,机器人通过人类的共享经验正确地认识物体(Ground-truth);在学习过程中,目标是求出使识别精度最佳的参数;此处将人类辅助过程中产生的输入数据作为一组特征值(Features)及标签数据(Ground-truth);在最深层的学习工作中使用两阶段学习方法;在第一阶段中,使用无监督特征学习方法来初始化隐藏层的权值,在训练前加权是避免过度拟合的关键;采用了稀疏自动编码(SAE)算法,定义关于隐藏单元激活的稀疏惩罚函数,使用参数控制权值;在学习算法的监督阶段,需要获得分类器权值及对用于识别的隐藏层的权值进行精细化;在两级检测的推理过程中,根据网络参数,首先用一个较小的网络产生一组相似目标的最高概率的分类,然后用一个具有一组独立参数的较大网络来重新排列这些分类集,并且得到一个最好的类型;两级模型学习的唯一的不同是用相同的方法来独立地得到这两组参数。
3.根据权利要求1所述的面向人机协作的机器人自主学习方法,其特征在于,所述步骤S2包括以下步骤:
在任务学习过程中,采用行为感知技术对机器人进行示教;通过人机交互模块,机器人能通过用户的手势和语言感知用户的意图;在示教前,用户先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人;用户通过陈述任务名称、子任务的数量和操作对象的属性;同时包括用相应的手势动作辅助语音进行相关的讲解;用户接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而整合所有子任务的信息;通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,可选择通过 “首先”、“然后”、“下一个子任务”的语音对子任务片段进行分割,在子任务的安排时,充分利用用户的经验帮助机器人对任务的轨迹进行分段规划;在用户对整个任务进行描述后,机器人利用运动学原理通过分段的示教任务轨迹进行学习;机器人如果在完成学习任务的过程中遇到困难,就向人类寻求帮助;接着,机器人将学习到的任务付诸实际并完善自身的知识库;机器人可以通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过用户的实时反馈不断地修正自身学习到的任务经验;假设原始子任务结构和任何机器传感器数据没有任何关联;通过优化函数确定最终的轨迹片段与原始子任务的分配关系,其目标函数设计为,其中为性能参数,是一种当没有任何子任务被分成至少一个轨迹片段的情况下执行的惩罚函数;也是一种惩罚函数,用于处理机器人在任务执行过程中是否包含用户的干预;
是一种奖励函数,用于奖励可以细分的轨迹片段;为奖励函数,用于奖励机器人能自主地完成对应的子任务;通过由粗到精搜索的思想,最终的轨迹片段都可以对应到所有的原始子任务中,从而完成机器人的任务学习过程。
4.根据权利要求3所述的面向人机协作的机器人自主学习方法,其特征在于,强化学习中,一方面,机器人需要尽可能地选择不同的动作,以找到最优的策略,即探索(Exploration),另一方面又要考虑选择值函数最大的动作,以得到大的奖赏即利用(Exploitation) ;因此,学习过程中需要在获得知识和获得高的回报之间进行折中,即对探索和利用进行平衡。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810149541.9A CN108406767A (zh) | 2018-02-13 | 2018-02-13 | 面向人机协作的机器人自主学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810149541.9A CN108406767A (zh) | 2018-02-13 | 2018-02-13 | 面向人机协作的机器人自主学习方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108406767A true CN108406767A (zh) | 2018-08-17 |
Family
ID=63128700
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810149541.9A Pending CN108406767A (zh) | 2018-02-13 | 2018-02-13 | 面向人机协作的机器人自主学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108406767A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
CN109491240A (zh) * | 2018-10-16 | 2019-03-19 | 中国海洋大学 | 交互强化学习方法在水下机器人中的应用 |
CN109590987A (zh) * | 2018-12-03 | 2019-04-09 | 深圳市越疆科技有限公司 | 半智能示教学习方法、智能机器人和存储介质 |
CN109760054A (zh) * | 2019-01-30 | 2019-05-17 | 重庆两江微链智能科技有限公司 | 机器人自主学习系统和机器人控制方法 |
CN109858574A (zh) * | 2018-12-14 | 2019-06-07 | 启元世界(北京)信息技术服务有限公司 | 面向人机协同工作的智能体的自主学习方法和系统 |
CN110070188A (zh) * | 2019-04-30 | 2019-07-30 | 山东大学 | 一种融合交互式强化学习的增量式认知发育系统及方法 |
CN110536003A (zh) * | 2019-07-10 | 2019-12-03 | 浙江工业大学 | 用于帮助聋哑人的sos系统 |
CN110942134A (zh) * | 2018-09-25 | 2020-03-31 | 罗伯特·博世有限公司 | 用于运行控制系统的方法和设备 |
CN111062494A (zh) * | 2019-12-26 | 2020-04-24 | 山东大学 | 具有终身学习能力的机器人自组织-反思认知发育方法及系统 |
CN111385348A (zh) * | 2020-01-08 | 2020-07-07 | 广州番禺职业技术学院 | 一种云脑机器人系统 |
EP3783548A1 (en) * | 2019-08-19 | 2021-02-24 | Wipro Limited | Method and system for task execution in dynamic heterogeneous robotic environment |
CN112518756A (zh) * | 2020-12-10 | 2021-03-19 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112712175A (zh) * | 2020-12-30 | 2021-04-27 | 广州富港万嘉智能科技有限公司 | 机器人学习方法及相关装置 |
CN113887340A (zh) * | 2021-09-15 | 2022-01-04 | 北京邮电大学 | 一种基于离线深度学习与在线人机协同的目标识别方法 |
CN114556377A (zh) * | 2019-10-15 | 2022-05-27 | 尤帕斯公司 | 机器人过程自动化中的强化学习 |
WO2022111652A1 (zh) * | 2020-11-27 | 2022-06-02 | 广东省科学院智能制造研究所 | 一种机器人自主异常修复技能学习方法及系统 |
CN114761182A (zh) * | 2019-09-30 | 2022-07-15 | 西门子股份公司 | 机器人控制系统和用于训练所述机器人控制系统的方法 |
CN114895660A (zh) * | 2022-04-27 | 2022-08-12 | 达闼机器人股份有限公司 | 无人设备的控制方法、装置、介质及设备 |
CN116843149A (zh) * | 2023-07-11 | 2023-10-03 | 深圳市深水水务咨询有限公司 | 一种基于生成式学习的水库防洪调度方法 |
CN117420760A (zh) * | 2023-11-24 | 2024-01-19 | 东莞市新佰人机器人科技有限责任公司 | 适用于机器人自主协作的多模态控制算法融合方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014151926A2 (en) * | 2013-03-15 | 2014-09-25 | Brain Corporation | Robotic training apparatus and methods |
CN105700526A (zh) * | 2016-01-13 | 2016-06-22 | 华北理工大学 | 具有自主学习能力的在线序列极限学习机方法 |
CN106843225A (zh) * | 2017-03-15 | 2017-06-13 | 宜宾学院 | 一种变电站巡检机器人路径规划系统 |
CN107150347A (zh) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | 基于人机协作的机器人感知与理解方法 |
-
2018
- 2018-02-13 CN CN201810149541.9A patent/CN108406767A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014151926A2 (en) * | 2013-03-15 | 2014-09-25 | Brain Corporation | Robotic training apparatus and methods |
CN105700526A (zh) * | 2016-01-13 | 2016-06-22 | 华北理工大学 | 具有自主学习能力的在线序列极限学习机方法 |
CN106843225A (zh) * | 2017-03-15 | 2017-06-13 | 宜宾学院 | 一种变电站巡检机器人路径规划系统 |
CN107150347A (zh) * | 2017-06-08 | 2017-09-12 | 华南理工大学 | 基于人机协作的机器人感知与理解方法 |
Non-Patent Citations (2)
Title |
---|
张汝波编著: "《强化学习理论及应用》", 30 April 2001, 哈尔滨:哈尔滨工程大学出版社 * |
陈奇石: "强化学习在仿人机器人行走稳定控制上的研究及实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
CN110942134A (zh) * | 2018-09-25 | 2020-03-31 | 罗伯特·博世有限公司 | 用于运行控制系统的方法和设备 |
CN109491240A (zh) * | 2018-10-16 | 2019-03-19 | 中国海洋大学 | 交互强化学习方法在水下机器人中的应用 |
CN109590987A (zh) * | 2018-12-03 | 2019-04-09 | 深圳市越疆科技有限公司 | 半智能示教学习方法、智能机器人和存储介质 |
CN109590987B (zh) * | 2018-12-03 | 2021-06-29 | 深圳市越疆科技有限公司 | 半智能示教学习方法、智能机器人和存储介质 |
CN109858574A (zh) * | 2018-12-14 | 2019-06-07 | 启元世界(北京)信息技术服务有限公司 | 面向人机协同工作的智能体的自主学习方法和系统 |
CN109858574B (zh) * | 2018-12-14 | 2019-12-17 | 启元世界(北京)信息技术服务有限公司 | 面向人机协同工作的智能体的自主学习方法和系统 |
CN109760054A (zh) * | 2019-01-30 | 2019-05-17 | 重庆两江微链智能科技有限公司 | 机器人自主学习系统和机器人控制方法 |
CN110070188B (zh) * | 2019-04-30 | 2021-03-30 | 山东大学 | 一种融合交互式强化学习的增量式认知发育系统及方法 |
CN110070188A (zh) * | 2019-04-30 | 2019-07-30 | 山东大学 | 一种融合交互式强化学习的增量式认知发育系统及方法 |
CN110536003B (zh) * | 2019-07-10 | 2021-04-06 | 浙江工业大学 | 用于帮助聋哑人的sos系统 |
CN110536003A (zh) * | 2019-07-10 | 2019-12-03 | 浙江工业大学 | 用于帮助聋哑人的sos系统 |
EP3783548A1 (en) * | 2019-08-19 | 2021-02-24 | Wipro Limited | Method and system for task execution in dynamic heterogeneous robotic environment |
CN114761182B (zh) * | 2019-09-30 | 2024-04-12 | 西门子股份公司 | 机器人控制系统和用于训练所述机器人控制系统的方法 |
CN114761182A (zh) * | 2019-09-30 | 2022-07-15 | 西门子股份公司 | 机器人控制系统和用于训练所述机器人控制系统的方法 |
CN114556377A (zh) * | 2019-10-15 | 2022-05-27 | 尤帕斯公司 | 机器人过程自动化中的强化学习 |
CN111062494A (zh) * | 2019-12-26 | 2020-04-24 | 山东大学 | 具有终身学习能力的机器人自组织-反思认知发育方法及系统 |
CN111062494B (zh) * | 2019-12-26 | 2023-06-16 | 山东大学 | 具有终身学习能力的机器人自组织-反思认知发育方法及系统 |
CN111385348A (zh) * | 2020-01-08 | 2020-07-07 | 广州番禺职业技术学院 | 一种云脑机器人系统 |
WO2022111652A1 (zh) * | 2020-11-27 | 2022-06-02 | 广东省科学院智能制造研究所 | 一种机器人自主异常修复技能学习方法及系统 |
CN112518756B (zh) * | 2020-12-10 | 2022-08-05 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112518756A (zh) * | 2020-12-10 | 2021-03-19 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112712175A (zh) * | 2020-12-30 | 2021-04-27 | 广州富港万嘉智能科技有限公司 | 机器人学习方法及相关装置 |
CN112712175B (zh) * | 2020-12-30 | 2024-02-23 | 广州富港生活智能科技有限公司 | 机器人学习方法及相关装置 |
CN113887340A (zh) * | 2021-09-15 | 2022-01-04 | 北京邮电大学 | 一种基于离线深度学习与在线人机协同的目标识别方法 |
CN114895660A (zh) * | 2022-04-27 | 2022-08-12 | 达闼机器人股份有限公司 | 无人设备的控制方法、装置、介质及设备 |
CN116843149A (zh) * | 2023-07-11 | 2023-10-03 | 深圳市深水水务咨询有限公司 | 一种基于生成式学习的水库防洪调度方法 |
CN117420760A (zh) * | 2023-11-24 | 2024-01-19 | 东莞市新佰人机器人科技有限责任公司 | 适用于机器人自主协作的多模态控制算法融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108406767A (zh) | 面向人机协作的机器人自主学习方法 | |
Kotseruba et al. | 40 years of cognitive architectures: core cognitive abilities and practical applications | |
Dong et al. | Research on how human intelligence, consciousness, and cognitive computing affect the development of artificial intelligence | |
US10803401B2 (en) | Artificial intelligence engine having multiple independent processes on a cloud based platform configured to scale | |
US20180357543A1 (en) | Artificial intelligence system configured to measure performance of artificial intelligence over time | |
Idris et al. | Adaptive course sequencing for personalization of learning path using neural network | |
Hamami et al. | A systematic review on particle swarm optimization towards target search in the swarm robotics domain | |
Gbadegeshin et al. | What is an Artificial Intelligence (AI): A Simple Buzzword or a Worthwhile Inevitability? | |
Li et al. | SADRL: Merging human experience with machine intelligence via supervised assisted deep reinforcement learning | |
Kimm | Classes of AI tools, techniques, and methods | |
Bradley et al. | Explainable artificial intelligence (XAI) user interface design for solving a Rubik’s Cube | |
Fonooni et al. | Applying ant colony optimization algorithms for high-level behavior learning and reproduction from demonstrations | |
Kallel et al. | Building Collaborative e-learning teams in a smart education environment | |
Zedadra et al. | Dynamic group formation based on a natural phenomenon | |
Song et al. | Human-AI collaborative innovation in design | |
Li et al. | Towards designing smart public spaces: A framework for designers to leverage AI and IoT technologies | |
Jing | A deep neural network-based method for building a professional farmer training model | |
Gambo et al. | A deep learning solution for learning style detection using cognitive-affective features | |
Song et al. | Human-AI collaboration by design | |
Cachique et al. | Intelligent digital tutor to assemble puzzles based on artificial intelligence techniques | |
Ősz et al. | Possible connecting areas of education and intelligent systems | |
Guo et al. | Improve the efficiency of deep reinforcement learning through semantic exploration guided by natural language | |
Li | An Empirical Approach to the Utilization of Affective Decision Tree Models in Smart Teaching | |
Owoc et al. | University students’ research on artificial intelligence and knowledge management. a review and report of multi-case studies | |
Dong et al. | Artificial Intelligence for Web-based Educational Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180817 |