CN108762060B - 一种远程操作任务制定的优化方法及系统 - Google Patents

一种远程操作任务制定的优化方法及系统 Download PDF

Info

Publication number
CN108762060B
CN108762060B CN201810424329.9A CN201810424329A CN108762060B CN 108762060 B CN108762060 B CN 108762060B CN 201810424329 A CN201810424329 A CN 201810424329A CN 108762060 B CN108762060 B CN 108762060B
Authority
CN
China
Prior art keywords
standard
task
weight
evaluation
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810424329.9A
Other languages
English (en)
Other versions
CN108762060A (zh
Inventor
李文皓
冯冠华
张珩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Mechanics of CAS
Original Assignee
Institute of Mechanics of CAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Mechanics of CAS filed Critical Institute of Mechanics of CAS
Priority to CN201810424329.9A priority Critical patent/CN108762060B/zh
Publication of CN108762060A publication Critical patent/CN108762060A/zh
Application granted granted Critical
Publication of CN108762060B publication Critical patent/CN108762060B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0205Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system
    • G05B13/024Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric not using a model or a simulator of the controlled system in which a parameter or coefficient is automatically adjusted to optimise the performance

Abstract

本发明实施例提供一种远程操作任务制定的优化方法和系统,所述方法包括:获取多个操作员远程操作机器人执行目标任务时的操作数据和评估信息,其中,所述目标任务包括标准操作任务;根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率;根据所述平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。由此,可以实现对远程操作机器人的操作步骤进行优化。

Description

一种远程操作任务制定的优化方法及系统
技术领域
本发明实施例涉及机器人远程操控领域,尤其涉及一种远程操作任务制定的优化方法及系统。
背景技术
机器人远程操作是将人的智能判断和机器人的强效执行相结合的一种手段,可极大的延伸作业的通用性、智能性和有效保护操作人员的安全,同时也有利于拥有专业知识背景的操作专家,方便的加入或者介入重要的操作任务。本方法涉及的技术领域背景即机器人的远程操作领域。
人与机器的操作各有特点,人的特点体现在智能性,对于复杂情况的判断和紧急处理处置在要明显强于机器,但是人的主要缺点也很明显:人的操作精度往往不如机器,人有可能在一些重复性操作时犯错或者失误,人会疲劳等。特别是远程操作的情况下,不确定大时延对于操作人员的判断将带来巨大影响,
然而在远程操作中,以人来判断和决策,以机器或者自动程序进行辅助操作是一个较优的思路。在制定远程操作任务时,一般通过任务分析和仿真进行,但是难以将人的操作特点和操作人员的人性因素考虑制定并优化。
发明内容
本发明实施例提供了一种远程操作任务制定的优化方法及系统,可以实现对远程操作机器人的操作步骤进行优化。
第一方面,本发明实施例提供了一种远程操作任务制定的优化方法,包括:
获取多个操作员远程操作机器人执行目标任务时的操作数据和评估信息,其中,所述目标任务包括标准操作任务;
根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率;
根据所述平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
在一个可能的实施方式中,所述根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率包括:
获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;
根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率。
在一个可能的实施方式中,获取多个操作员远程操作机器人执行目标任务时的评估信息,包括:
确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;
根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。
在一个可能的实施方式中,确定所述非标准操作任务对应的评估值,包括:
获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;
根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值;
其中,所述第一公式为:
Figure GDA0002797768690000031
Jf_k为可重复训练的非标准操作任务的评估值,
Figure GDA0002797768690000032
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure GDA0002797768690000033
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure GDA0002797768690000034
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重。
在一个可能的实施方式中,确定所述标准操作任务对应的评估值,包括:
获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;
根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值;
其中,所述第二公式为:
Figure GDA0002797768690000035
Jk为步骤k的评估值,在步骤k所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重。
在一个可能的实施方式中,确定所述非标准操作任务对应的评估值,还包括:
确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复训练的非标准步骤;
根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;
根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;
根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值;
其中,所述第三公式为:
Figure GDA0002797768690000041
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure GDA0002797768690000042
为平均安全距离的评价权重,
Figure GDA0002797768690000043
为最小安全距离的评价权重,
Figure GDA0002797768690000044
为操作时间的评价权重,
Figure GDA0002797768690000045
为操作距离的评价权重。
在一个可能的实施方式中,所述方法还包括:
根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;
根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。
在一个可能的实施方式中,所述权重至少包括以下之一:
操作位置对应的权重wp、安全距离对应的权重wd、操作模式对应的权重wm、操作路线长度的权重
Figure GDA0002797768690000046
操作中的最小安全距离的权重wf-d、操作中全程安全距离的权重wf_d_t、操作时长的权重wf_T、平均安全距离的评价权重
Figure GDA0002797768690000047
最小安全距离的评价权重
Figure GDA0002797768690000048
操作时间的评价权重
Figure GDA0002797768690000049
和操作距离的评价权重
Figure GDA00027977686900000410
第二方面,本发明实施例提供了一种远程操作任务制定的优化系统,包括:
获取模块,用于获取多个操作员远程操作机器人执行目标任务时的操作数据和评估信息,其中,所述目标任务包括标准操作任务;
确定模块,用于根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率;
调整模块,用于根据所述平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
在一个可能的实施方式中,所述确定模块,用于获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率。
在一个可能的实施方式中,所述获取模块,用于确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。
在一个可能的实施方式中,所述获取模块,用于获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值;
其中,所述第一公式为:
Figure GDA0002797768690000051
Jf_k为可重复训练的非标准操作任务的评估值,
Figure GDA0002797768690000061
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure GDA0002797768690000062
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure GDA0002797768690000063
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重。
在一个可能的实施方式中,所述获取模块,用于获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值;
其中,所述第二公式为:
Figure GDA0002797768690000064
Jk为步骤k的评估值,在步骤k所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重。
在一个可能的实施方式中,所述获取模块,用于确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复训练的非标准步骤;根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值;
其中,所述第三公式为:
Figure GDA0002797768690000071
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure GDA0002797768690000072
为平均安全距离的评价权重,
Figure GDA0002797768690000073
为最小安全距离的评价权重,
Figure GDA0002797768690000074
为操作时间的评价权重,
Figure GDA0002797768690000075
为操作距离的评价权重。
在一个可能的实施方式中,所述获取模块,还用于根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。
在一个可能的实施方式中,所述权重至少包括以下之一:
操作位置对应的权重wp、安全距离对应的权重wd、操作模式对应的权重wm、操作路线长度的权重
Figure GDA0002797768690000076
操作中的最小安全距离的权重wf-d、操作中全程安全距离的权重wf_d_t、操作时长的权重wf_T、平均安全距离的评价权重
Figure GDA0002797768690000077
最小安全距离的评价权重
Figure GDA0002797768690000078
操作时间的评价权重
Figure GDA0002797768690000079
和操作距离的评价权重
Figure GDA00027977686900000710
本发明实施例提供的一种远程操作任务制定的优化方案,通过将任务集分解、步骤集分解,以专家示例或者操作效果优选为基础,可以修改、优化和构建标准步骤集并建立相应数据基础,针对可能出现的步骤情况给出了对应的量化评价方式,进一步从步骤结果组合的评价提升到任务结果评价,从而实现了在复杂任务、复杂时延环境下对机器人远程操作效果的科学量化评价,在不依赖于具体的机器人对象和操作对象的条件下,可有效的用于指导和优化制定操作任务。
附图说明
图1为本发明实施例提供了一种远程操作任务制定的优化方法的流程示意图;
图2为本发明实施例提供了一种远程操作任务制定的优化系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为便于对本发明实施例的理解,下面将结合附图以具体实施例做进一步的解释说明,实施例并不构成对本发明实施例的限定。
图1为本发明实施例提供了一种远程操作任务制定的优化方法的流程示意图,如图1所示该方法具体包括:
101、确定操作员远程操作机器人执行目标任务对应的评估值。
其中,所述目标任务包括:标准操作任务和/或非标准操作任务;
具体地,对于非标准操作任务,可以分为可重复训练的非标准操作任务和不可重复训练的非标准操作任务,其中,可重复训练的非标准操作任务可通过训练转换为标准操作任务。
对于可重复训练的非标准操作任务,可通过如下方式确定可重复训练的所述非标准操作任务对应的评估值,具体包括:获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值。
其中,所述第一公式为:
Figure GDA0002797768690000091
Jf_k为可重复训练的非标准操作任务的评估值,
Figure GDA0002797768690000092
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure GDA0002797768690000093
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure GDA0002797768690000094
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重,且wf_L+wf_d+wf_d_t+wf_T=1。
在本实施例中可通过调整参数
Figure GDA0002797768690000095
wf-d、wf-d和wf_T,将可重复训练的非标准操作任务训练为标准操作任务。
具体地,对于标准操作任务,可通过如下方式确定标准操作任务对应的评估值,具体包括:
获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值。
其中,所述第二公式为:
Figure GDA0002797768690000096
Jk为步骤k的评估值,在步骤k为所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重,且wp+wd+wm=1。
对于不可重复训练的非标准操作任务,可通过如下方式确定可不重复训练的所述非标准操作任务对应的评估值,具体包括:确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复的训练的非标准步骤;根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值。
确定所述非标准操作任务与所述标准操作任务的相似度,可采用相似度算法,具体包括:
Figure GDA0002797768690000101
其中,
Figure GDA0002797768690000102
表示的是标准步骤i与非标准步骤fk所对应的相似度表征计算结果。||Dis||表示为第i个标准步骤的起始点与本非标准步骤的起始点的状态空间距离,||Dis||则表示第i个标准步骤的终止点与本非标准步骤的终止点的状态空间距离,||dis||表示第i个标准步骤的起始点与障碍物或者干涉物的距离,||diL||表示第i个标准步骤的终止点与障碍物或者干涉物的距离,
Figure GDA0002797768690000103
表示第i个标准步骤与本非标准步骤的操作时间差别,
Figure GDA0002797768690000104
表示第i个标准步骤与本非标准步骤的操作距离差别,||ΔDis-iL||表示第i个标准步骤的起始点到终止点的状态空间距离与本非标准步骤的起始点到终止点的状态空间距离差别。
Figure GDA0002797768690000105
为起始点相似性的权重,
Figure GDA0002797768690000106
为终止点相似性的权重,
Figure GDA0002797768690000107
为起始安全距离的相似性权重,
Figure GDA0002797768690000108
为终止安全距离的相似性权重,
Figure GDA0002797768690000111
为操作时长相似性权重,
Figure GDA0002797768690000112
为操作距离的相似性权重,
Figure GDA0002797768690000113
为终末端距离相似度权重,且有
Figure GDA0002797768690000114
Figure GDA0002797768690000115
越小越相似。
根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤,包括:根据
Figure GDA0002797768690000116
值由小到大排列,取95%比重的标准步骤构成列表,提取的列表中含有c个标准步骤,95%比重的提取方法为:
Figure GDA0002797768690000117
其中,n为所有标准步骤的数量,该提取即提取排序中前c个标准步骤,且这些标准步骤贡献的相似度效果占总数的95%以上。其中对于比重值95%可根据具体情况进行设定,如85%、90%等,对此本实施例不作具体限定。
分别获取列表中标准步骤的参数:障碍物或者干涉物的平均距离
Figure GDA0002797768690000118
障碍物或者干涉物的最小距离min||di||、操作时间长度Ti、操作距离长度Ti
根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值,具体包括:
Figure GDA0002797768690000119
Figure GDA00027977686900001110
Figure GDA0002797768690000121
Figure GDA0002797768690000122
其中,所述第三公式为:
Figure GDA0002797768690000123
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure GDA0002797768690000124
为平均安全距离的评价权重,
Figure GDA0002797768690000125
为最小安全距离的评价权重,
Figure GDA0002797768690000126
为操作时间的评价权重,
Figure GDA0002797768690000127
为操作距离的评价权重。
102、根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。
具体地,根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息
所述执行效果信息采用如下公式确定:
Figure GDA0002797768690000128
所述总效果的基础值采用如下公式确定:
Figure GDA0002797768690000129
其中,Tj为目标任务的操作时间,Dj为目标任务中全程与障碍物或者干涉物的平均距离,dj为操作中对应采样点与障碍物或者干涉物的距离。
所述修正系数εj采用如下公式确定:
Figure GDA0002797768690000131
其中,εj为修正系数,Td_j为远程操作任务j的回路时延平均值,Tw_j为远程操作任务j的回路时延波动范围,Twf_j为远程操作任务j回路时延的波动等效频率。
所述根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息的步骤采用如下公式确定:
Figure GDA0002797768690000132
103、获取多个操作员远程操作机器人执行目标任务时的操作数据和评估信息。
104、根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率。
具体地,获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率
其中,所述目标任务包括标准操作任务。
对于某个完成设计的机器人操作任务(比如j),在训练样本数据库中提取各个不同操作员(比如操作员x)在进行该标准步骤操作时的评估值
Figure GDA0002797768690000133
其中包含了Mj,Tj,Dj,dj,Mj是任务中各步骤的评估值的总和,对于标准任务,由前文可知,主要是操作模式、操作位置和操作与障碍的安全距离保持的准确性,Tj是任务操作全时长,包括了各步骤的时间长度和步骤与步骤间衔接的时间长度,Dj为全任务的操作距离,即为该任务中所有步骤的操作距离之和,dj为最小的与障碍物之间的距离,为该任务中所有步骤出现的最小的与障碍物之间的距离。显然
Figure GDA0002797768690000141
是包含了操作员特性信息的评价结果。随后,根据操作的时间顺序排序,即初次操作该任务排首,后续操作该任务依次排列。计算该操作员进行此人操作时的评价信息
Figure GDA0002797768690000142
的平均变化率
Figure GDA0002797768690000143
以及熟练操作后的评价信息的第一平均值
Figure GDA0002797768690000144
其中,上述熟练操作后的评价信息的第一平均值
Figure GDA0002797768690000145
是指操作员当对本任务进行熟练操作后(一般认为熟练操作后的任务评估值波动不大于10%),所获取的评价平均值;而平均变化率
Figure GDA0002797768690000146
则是指在此之前的(熟练操作前的)评估值变化率的平均值。
依次计算训练样本数据库中所有操作员(比如Nx个)对于该设计任务(比如任务j)的评价信息平均变化率
Figure GDA0002797768690000147
和熟练操作后的评价信息的第一平均值
Figure GDA0002797768690000148
并取得该任务对应所有操作员的(在训练样本库中的)评价信息变化率平均值
Figure GDA0002797768690000149
和熟练操作后的评价信息的第二平均值
Figure GDA00027977686900001410
105、根据所述平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
将需要优化和待制定的某个操作任务(比如达成某一目标,可能由多种步骤的),按可能的操作步骤组合和排列构成潜在的可选操作任务,分别计算这些组合下的
Figure GDA00027977686900001411
Figure GDA00027977686900001412
随后以
Figure GDA00027977686900001413
最小,或者
Figure GDA00027977686900001414
最小,又或者两者的权重组合最小为目标,使用智能算法(包括且不限于神经网络、粒子性群算法、遗传算法等)在训练样本数据库所对应的操作员操作数据,训练优选此任务的组合步骤,进一步使用考核样本数据库中的操作员操作数据进行考核。
本发明实施例提供的一种远程操作任务制定的优化方法,通过将任务集分解、步骤集分解,以专家示例或者操作效果优选为基础,可以修改、优化和构建标准步骤集并建立相应数据基础,针对可能出现的步骤情况给出了对应的量化评价方式,进一步从步骤结果组合的评价提升到任务结果评价,从而实现了在复杂任务、复杂时延环境下对机器人远程操作效果的科学量化评价,在不依赖于具体的机器人对象和操作对象的条件下,可有效的用于指导和优化制定操作任务。
图2为本发明实施例提供了一种远程操作任务制定的优化系统的结构示意图,如图2所示,该系统包括:
获取模块201,用于获取多个操作员远程操作机器人执行目标任务时的操作数据和评估信息,其中,所述目标任务包括标准操作任务;
确定模块202,用于根据所述多个操作员对应的所述评估信息确定多个操作员远程操作的评估信息的平均变化率;
调整模块203,用于根据所述平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
可选地,所述确定模块202,用于获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率。
可选地,所述获取模块201,用于确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息。
可选地,所述获取模块201,用于获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值;
其中,所述第一公式为:
Figure GDA0002797768690000161
Jf_k为可重复训练的非标准操作任务的评估值,
Figure GDA0002797768690000162
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure GDA0002797768690000163
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure GDA0002797768690000164
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重。
可选地,所述获取模块201,用于获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值;
其中,所述第二公式为:
Figure GDA0002797768690000165
Jk为步骤k的评估值,在步骤k为所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重。
可选地,所述获取模块201,用于确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复的训练的非标准步骤;根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值;
其中,所述第三公式为:
Figure GDA0002797768690000171
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure GDA0002797768690000172
为平均安全距离的评价权重,
Figure GDA0002797768690000173
为最小安全距离的评价权重,
Figure GDA0002797768690000174
为操作时间的评价权重,
Figure GDA0002797768690000175
为操作距离的评价权重。
可选地,所述获取模块201,还用于根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。
可选地,所述权重至少包括以下之一:
操作位置对应的权重wp、安全距离对应的权重wd、操作模式对应的权重wm、操作路线长度的权重
Figure GDA0002797768690000176
操作中的最小安全距离的权重wf-d、操作中全程安全距离的权重wf_d_t、操作时长的权重wf_T、平均安全距离的评价权重
Figure GDA0002797768690000177
最小安全距离的评价权重
Figure GDA0002797768690000178
操作时间的评价权重
Figure GDA0002797768690000179
和操作距离的评价权重
Figure GDA00027977686900001710
在本实施例中图2所示的系统,可作为如图1所示远程操作任务制定的优化方法的执行主体,可执行图1所示方法中的所有步骤,进而实现如图1所示方法的技术效果,为简洁描述,在此不作赘述。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种远程操作任务制定的优化方法,其特征在于,包括:
根据远程操作的结果,确定执行目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;
所述执行效果信息采用如下公式确定:
Figure FDA0002797768680000011
其中,Jk为步骤k的评估值,Jf_k为可重复训练的非标准操作任务的评估值,Jf_c_k为不可重复训练的非标准操作任务的评估值;
所述总效果的基础值采用如下公式确定:
Figure FDA0002797768680000012
其中,Tj为目标任务的操作时间,Dj为目标任务中全程与障碍物或者干涉物的平均距离,dj为操作中对应采样点与障碍物或者干涉物的距离;
所述修正系数εj采用如下公式确定:
Figure FDA0002797768680000013
其中,εj为修正系数,Td_j为远程操作任务j的回路时延平均值,Tw_j为远程操作任务j的回路时延波动范围,Twf_j为远程操作任务j回路时延的波动等效频率;
所述根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息的步骤采用如下公式确定:
Figure FDA0002797768680000014
确定远程操作机器人执行目标任务对应的评估值,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;
根据所述远程操作的结果,对所述评估值进行处理确定机器人的远程操作效果的评估信息;
获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;
根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率;
根据所述第二平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
2.根据权利要求1所述的方法,其特征在于,确定所述非标准操作任务对应的评估值,包括:
获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;
根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值;
其中,所述第一公式为:
Figure FDA0002797768680000021
Jf_k为可重复训练的非标准操作任务的评估值,
Figure FDA0002797768680000022
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure FDA0002797768680000023
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure FDA0002797768680000024
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重。
3.根据权利要求1所述的方法,其特征在于,确定所述标准操作任务对应的评估值,包括:
获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;
根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值;
其中,所述第二公式为:
Figure FDA0002797768680000031
Jk为步骤k的评估值,在步骤k所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重。
4.根据权利要求1所述的方法,其特征在于,确定所述非标准操作任务对应的评估值,还包括:
确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复训练的非标准步骤;
根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;
根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;
根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值;
其中,所述第三公式为:
Figure FDA0002797768680000032
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure FDA0002797768680000041
为平均安全距离的评价权重,
Figure FDA0002797768680000042
为最小安全距离的评价权重,
Figure FDA0002797768680000043
为操作时间的评价权重,
Figure FDA0002797768680000044
为操作距离的评价权重。
5.根据权利要求1-4任一所述的方法,其特征在于,所述方法还包括:
根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;
根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。
6.根据权利要求5所述的方法,其特征在于,所述权重至少包括以下之一:
操作位置对应的权重wp、安全距离对应的权重wd、操作模式对应的权重wm、操作路线长度的权重
Figure FDA0002797768680000045
操作中的最小安全距离的权重wf-d、操作中全程安全距离的权重wf_d_t、操作时长的权重wf_T、平均安全距离的评价权重
Figure FDA0002797768680000046
最小安全距离的评价权重
Figure FDA0002797768680000047
操作时间的评价权重
Figure FDA0002797768680000048
和操作距离的评价权重
Figure FDA0002797768680000049
7.一种远程操作任务制定的优化系统,其特征在于,包括:
获取模块,用于根据远程操作的结果,确定执行目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息,其中,所述目标任务包括:标准操作任务和/或非标准操作任务;
所述执行效果信息采用如下公式确定:
Figure FDA00027977686800000410
其中,Jk为步骤k的评估值,Jf_k为可重复训练的非标准操作任务的评估值,Jf_c_k为不可重复训练的非标准操作任务的评估值;
所述总效果的基础值采用如下公式确定:
Figure FDA0002797768680000051
其中,Tj为目标任务的操作时间,Dj为目标任务中全程与障碍物或者干涉物的平均距离,dj为操作中对应采样点与障碍物或者干涉物的距离;
所述修正系数εj采用如下公式确定:
Figure FDA0002797768680000052
其中,εj为修正系数,Td_j为远程操作任务j的回路时延平均值,Tw_j为远程操作任务j的回路时延波动范围,Twf_j为远程操作任务j回路时延的波动等效频率;
所述根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息的步骤采用如下公式确定:
Figure FDA0002797768680000053
确定模块,用于获取每个操作员多次远程操作机器人执行目标任务时的评估信息的第一平均变化率;根据所述第一平均变化率确定多个操作员多次远程操作机器人执行目标任务时的评估信息的第二平均变化率;
调整模块,用于根据所述第二平均变化率调整评估所述操作员远程操作机器人执行目标任务时的评估信息中的权重的值,对所述目标任务中的标准操作步骤和操作数据进行优化。
8.根据权利要求7所述的系统,其特征在于,所述获取模块,用于获取机器人在执行非标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合,所述非标准操作任务包括可重复训练的非标准步骤;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第一公式确定所述非标准操作任务对应的评估值;
其中,所述第一公式为:
Figure FDA0002797768680000061
Jf_k为可重复训练的非标准操作任务的评估值,
Figure FDA0002797768680000062
为非标准操作任务的操作所行径的路线长度,di为操作中对应采样点与障碍物或者干涉物的距离,
Figure FDA0002797768680000063
为非标准操作任务内总的采样点数量,Tf_k为非标准操作任务的总操作时间,
Figure FDA0002797768680000064
为操作路线长度的权重,wf-d为操作中的最小安全距离的权重,wf_d_t为操作中全程安全距离的权重,wf_T为操作时长的权重。
9.根据权利要求7所述的系统,其特征在于,所述获取模块,用于获取机器人在执行标准操作任务时的操作轨迹、轨迹数据及允许操作模式的集合;根据所述操作轨迹、所述轨迹数据和所述允许操作模式的集合采用第二公式确定所述标准操作任务对应的评估值;
其中,所述第二公式为:
Figure FDA0002797768680000065
Jk为步骤k的评估值,在步骤k所述操作轨迹有l个采样点,每个采样点的标准位置的坐标为Pd_i,每个采样点的操作位置的坐标为Pi,dd_i为各标准采样点与障碍物或者干涉物的距离,di为操作中对应采样点与障碍物或者干涉物的距离,m为对应的操作模式的种类,wp为操作位置对应的权重,wd为安全距离对应的权重,wm为操作模式对应的权重。
10.根据权利要求7所述的系统,其特征在于,所述获取模块,用于确定所述非标准操作任务与所述标准操作任务的相似度,所述非标准操作任务包括不可重复的训练的非标准步骤;根据所述相似度和相似度阈值确定一个或多个相似的标准操作步骤;根据所述标准操作步骤确定虚拟参考标准操作步骤的特征值;根据所述特征值采用第三公式确定所述非标准操作任务对应的评估值;
其中,所述第三公式为:
Figure FDA0002797768680000071
Jf_c_k为不可重复训练的非标准操作任务的评估值,lf_c_k为非标准操作任务的采样点数量,||df_c_k||为对应采样点与障碍物或者干涉物的距离,Tf_c_k为非标准操作任务的操作时间,Lf_c_k为非标准操作任务的操作距离,
Figure FDA0002797768680000072
为平均安全距离的评价权重,
Figure FDA0002797768680000073
为最小安全距离的评价权重,
Figure FDA0002797768680000074
为操作时间的评价权重,
Figure FDA0002797768680000075
为操作距离的评价权重。
11.根据权利要求7-10任一所述的系统,其特征在于,所述获取模块,还用于根据远程操作的结果,确定执行所述目标任务的执行效果信息、总效果的基础值和总效果的修正系数;根据所述执行效果信息、所述基础值和所述修正系数确定机器人远程操作效果的评估信息。
12.根据权利要求11所述的系统,其特征在于,所述权重至少包括以下之一:
操作位置对应的权重wp、安全距离对应的权重wd、操作模式对应的权重wm、操作路线长度的权重
Figure FDA0002797768680000076
操作中的最小安全距离的权重wf-d、操作中全程安全距离的权重wf_d_t、操作时长的权重wf_T、平均安全距离的评价权重
Figure FDA0002797768680000077
最小安全距离的评价权重
Figure FDA0002797768680000078
操作时间的评价权重
Figure FDA0002797768680000079
和操作距离的评价权重
Figure FDA00027977686800000710
CN201810424329.9A 2018-05-07 2018-05-07 一种远程操作任务制定的优化方法及系统 Active CN108762060B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810424329.9A CN108762060B (zh) 2018-05-07 2018-05-07 一种远程操作任务制定的优化方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810424329.9A CN108762060B (zh) 2018-05-07 2018-05-07 一种远程操作任务制定的优化方法及系统

Publications (2)

Publication Number Publication Date
CN108762060A CN108762060A (zh) 2018-11-06
CN108762060B true CN108762060B (zh) 2021-02-02

Family

ID=64009187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810424329.9A Active CN108762060B (zh) 2018-05-07 2018-05-07 一种远程操作任务制定的优化方法及系统

Country Status (1)

Country Link
CN (1) CN108762060B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337709A (ja) * 1993-05-31 1994-12-06 Nippon Telegr & Teleph Corp <Ntt> ロボット作業計画生成遂行方法
CN101844353A (zh) * 2010-04-14 2010-09-29 华中科技大学 机械臂/灵巧手系统遥操作任务规划和仿真方法
CN103299355A (zh) * 2010-11-04 2013-09-11 约翰霍普金斯大学 用于微创手术技能的评估或改进的系统和方法
CN104057450A (zh) * 2014-06-20 2014-09-24 哈尔滨工业大学深圳研究生院 一种针对服务机器人的高维操作臂遥操作方法
CN104778872A (zh) * 2015-04-03 2015-07-15 上海交通大学 用于机械臂遥操作人机交互研究的仿真实验训练平台
WO2015108819A1 (en) * 2014-01-14 2015-07-23 Qualcomm Incorporated Connectivity maintenance using a quality of service-based robot path planning algorithm
CN107291767A (zh) * 2016-04-11 2017-10-24 西门子工厂自动化工程有限公司 任务执行时间的优化处理方法和装置
CN107945499A (zh) * 2017-11-30 2018-04-20 中国科学院力学研究所 一种遥操作系统的测评方法及设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008140011A1 (ja) * 2007-05-09 2008-11-20 Nec Corporation 遠隔操作システム、サーバ、被遠隔操作装置、遠隔操作サービス提供方法
JP4936288B2 (ja) * 2007-12-10 2012-05-23 本田技研工業株式会社 目標経路生成システム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06337709A (ja) * 1993-05-31 1994-12-06 Nippon Telegr & Teleph Corp <Ntt> ロボット作業計画生成遂行方法
CN101844353A (zh) * 2010-04-14 2010-09-29 华中科技大学 机械臂/灵巧手系统遥操作任务规划和仿真方法
CN103299355A (zh) * 2010-11-04 2013-09-11 约翰霍普金斯大学 用于微创手术技能的评估或改进的系统和方法
WO2015108819A1 (en) * 2014-01-14 2015-07-23 Qualcomm Incorporated Connectivity maintenance using a quality of service-based robot path planning algorithm
CN104057450A (zh) * 2014-06-20 2014-09-24 哈尔滨工业大学深圳研究生院 一种针对服务机器人的高维操作臂遥操作方法
CN104778872A (zh) * 2015-04-03 2015-07-15 上海交通大学 用于机械臂遥操作人机交互研究的仿真实验训练平台
CN107291767A (zh) * 2016-04-11 2017-10-24 西门子工厂自动化工程有限公司 任务执行时间的优化处理方法和装置
CN107945499A (zh) * 2017-11-30 2018-04-20 中国科学院力学研究所 一种遥操作系统的测评方法及设备

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Evaluation of Parameters of Transactions When Remote Robot Control;Eugene Larkin 等;《International Conference on Swarm Intelligence 2017》;20170624;567-577 *
Experimental Operability Evaluation of Remote Control with Force Feedback for Mobile Robot;Naoki Motoi 等;《2018 IEEE International Conference on Industrial Technology (ICIT)》;20180430;159-164 *
不确定大时延下遥操作对象模型的在线修正方法;赵猛 等;《系统仿真学报》;20071031;第19卷(第19期);4473-4476 *
基于任务级的空间遥操作研究;赵迪 等;《载人航天》;20120930;第18卷(第5期);82-87 *
大时延环境下空间机器人的可靠遥操作策略;李文皓 等;《机械工程学报》;20170630;第53卷(第11期);90-96 *

Also Published As

Publication number Publication date
CN108762060A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108830453B (zh) 一种远程操作效果的评估方法及系统
CN109297974B (zh) 信息处理装置
CN110689535B (zh) 一种工件识别方法、装置及电子设备和存储介质
Wahono et al. Genetic feature selection for software defect prediction
CN109034509A (zh) 作业人员评价系统、作业人员评价装置及评价方法
CN109829136B (zh) 一种带随机跳变的退化设备的剩余寿命预测方法及系统
Segre et al. Burst muscle performance predicts the speed, acceleration, and turning performance of Anna’s hummingbirds
CN112861257B (zh) 一种基于神经网络的飞机火控系统精度敏感性分析方法
CN108762060B (zh) 一种远程操作任务制定的优化方法及系统
CN106682773B (zh) 一种基于模拟退火算法的人机焊接工时预测方法
CN109961160B (zh) 一种基于潮流参数的电网未来运行趋势预估方法及系统
CN108656109B (zh) 一种远程操作的训练方法及系统
Salem et al. Application of Biogeography based optimization in tuning a PID controller for nonlinear systems
CN110472321B (zh) 基于pso-gpr的全金属半硬壳的固体火箭舱段加工能耗预测方法
CN109977884B (zh) 目标跟随方法和装置
CN113496324A (zh) 喷涂质量预测方法、装置、电子设备以及存储介质
CN111066562A (zh) 一种葡萄霜霉病预测方法及系统
CN108051676B (zh) 一种雷电流幅值累积概率分布曲线拟合计算方法
JP2020060444A5 (zh)
CN115456171A (zh) 一种基于bp神经网络模型的飞行器姿态估计方法
CN111738410B (zh) 肉牛个体生长曲线获取方法、装置和存储介质
Yu et al. Research on diversity measure in particle filter
CN111291020A (zh) 基于局部加权线性动态系统的动态过程软测量建模方法
Hasibuan et al. Optimization Of Feature Weight TheVoting Feature Intervals 5 Algorithm Using Partical Swarm Optimization Algorithm
CN108828935A (zh) 一种远程操作的智能辅助操作方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant