CN115861829B - 飞拍控制方法和系统 - Google Patents

飞拍控制方法和系统 Download PDF

Info

Publication number
CN115861829B
CN115861829B CN202310187680.1A CN202310187680A CN115861829B CN 115861829 B CN115861829 B CN 115861829B CN 202310187680 A CN202310187680 A CN 202310187680A CN 115861829 B CN115861829 B CN 115861829B
Authority
CN
China
Prior art keywords
fly
swatter
features
virtual
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310187680.1A
Other languages
English (en)
Other versions
CN115861829A (zh
Inventor
肖智恒
马元巍
潘正颐
童竹勍
侯大为
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Weiyizhi Technology Co Ltd
Original Assignee
Changzhou Weiyizhi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Weiyizhi Technology Co Ltd filed Critical Changzhou Weiyizhi Technology Co Ltd
Priority to CN202310187680.1A priority Critical patent/CN115861829B/zh
Publication of CN115861829A publication Critical patent/CN115861829A/zh
Application granted granted Critical
Publication of CN115861829B publication Critical patent/CN115861829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种飞拍控制方法和系统,该方法包括:建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像;根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励;根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型;将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。

Description

飞拍控制方法和系统
技术领域
本发明涉及视觉检测技术领域,具体涉及一种飞拍控制方法和一种飞拍控制系统。
背景技术
在工业视觉检测领域,需要对待测工件进行多角度拍摄以用于检测工件表面缺陷,飞拍装置(包括机械臂和安装在机械臂末端的相机)能够实现在运动中取图并确定相机拍摄点位。
相关技术中,通常是控制机械臂带动摄像头在目标环境中拍照收集数据,以根据收集到的数据对机械臂的控制策略进行优化,但是,优化过程较为漫长,并且随着拍摄点位和成像设备像素的增加,其优化效果较差,飞拍的准确度和效率均较低。
发明内容
本发明为解决上述技术问题,提供了一种飞拍控制方法和系统,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
本发明采用的技术方案如下:
一种飞拍控制方法,包括以下步骤:建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
在本发明的一个实施例中,根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的所述交互奖励,包括:获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;根据所述平均对比度和所述余弦相似度计算第一相似度;根据所述第一相似度计算对应的交互奖励。
在本发明的一个实施例中,通过以下公式计算所述平均对比度:
Figure SMS_1
,/>
其中,
Figure SMS_2
为n个所述第一深度特征的集合,/>
Figure SMS_3
为n个所述第二深度特征的集合,/>
Figure SMS_4
为第i个所述第一深度特征,/>
Figure SMS_5
为第i个所述第二深度特征,/>
Figure SMS_6
为所述平均对比度。
在本发明的一个实施例中,通过以下公式计算所述第一相似度:
Figure SMS_7
其中,
Figure SMS_8
为所述余弦相似度,/>
Figure SMS_9
为所述第一相似度,/>
Figure SMS_10
为预设权重值。
在本发明的一个实施例中,通过以下公式计算所述交互奖励:
Figure SMS_11
其中,
Figure SMS_12
为所述交互奖励。
一种飞拍控制系统,包括:构建模块,所述构建模块用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;第一控制模块,所述第一控制模块用于采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;计算模块,所述计算模块用于根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;获取模块,所述获取模块用于根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;第二控制模块,所述第二控制模块用于将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述的飞拍控制方法。
一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的飞拍控制方法。
本发明的有益效果:
本发明通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
附图说明
图1为本发明实施例的飞拍控制方法的流程图;
图2为本发明一个实施例的计算智能体与虚拟飞拍仿真环境的交互奖励的方法的流程图;
图3为本发明一个实施例的飞拍控制系统的方框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是根据本发明实施例的飞拍控制方法的流程图。
如图1所示,本发明实施例的飞拍控制方法可包括以下步骤:
S1,建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体。
具体而言,在本发明的一个实施例中,可通过仿真软件或者仿真程序搭建与目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,例如,可采用gazebo仿真器搭建与目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体。
S2,采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像。
具体而言,采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,可包括以下步骤:在当前时刻,控制智能体进行拍摄以获取相应的观测图像
Figure SMS_13
,并在获取观测图像/>
Figure SMS_14
后,做出决策/>
Figure SMS_15
以控制智能体运动至下一个点位。当智能体运动至下一个点位后,控制智能体进行拍摄以获取新的观测图像/>
Figure SMS_16
,即下一时刻对应的观测图像,以此类推,直至智能体运动至最后一个点位,并获取对应的观测图像。
S3,根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励。
具体而言,在每个时刻,均根据当前时刻获取的观测图像计算智能体与虚拟飞拍仿真环境的交互奖励。
在本发明的一个实施例中,如图2所示,根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,可包括以下步骤:
S301,获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征。其中,n为正整数。
具体而言,可采用开源的预训练模型,例如,VGG模型、RestNet模型、Inception-Net模型等,分别获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征。其中,第一深度特征和第二深度特征的大小可为w×h×k,第一深度特征和第二深度特征的大小可根据实际情况进行标定。其中,目标图像可为理想状态下智能体拍摄的图像。
S302,根据n个第一深度特征和n个第二深度特征计算平均对比度。
在本发明的一个实施例中,根据n个第一深度特征和n个第二深度特征可通过以下公式计算平均对比度:
Figure SMS_17
, (1)
其中,
Figure SMS_19
为n个第一深度特征的集合,即/>
Figure SMS_23
,/>
Figure SMS_27
为第1个第一深度特征,/>
Figure SMS_21
为第2个第一深度特征,......,/>
Figure SMS_24
为第n个第一深度特征,/>
Figure SMS_28
为n个第二深度特征的集合,即/>
Figure SMS_30
,/>
Figure SMS_18
为第1个第二深度特征,/>
Figure SMS_22
为第2个第二深度特征,......,/>
Figure SMS_26
为第n个第二深度特征,/>
Figure SMS_29
为第i个第一深度特征,/>
Figure SMS_20
为第i个第二深度特征,/>
Figure SMS_25
为平均对比度。
S303,对n个第一深度特征进行平均值计算以获取第一平均特征,并对n个第二深度特征进行平均值计算以获取第二平均特征,以及计算第一平均特征和第二平均特征的余弦相似度。
具体而言,首先,可通过以下公式生成第一平均特征:
Figure SMS_31
, (2)
也就是说,可将n个第一深度特征代入上述公式(2)以计算大小为1×k的第一平均特征
Figure SMS_32
并通过以下公式生成第二平均特征:
Figure SMS_33
, (3)
也就是说,可将n个第二深度特征代入上述公式(3)以计算大小为1×k的第二平均特征
Figure SMS_34
然后,通过以下公式生成第一平均特征和第二平均特征的余弦相似度:
Figure SMS_35
, (4)
其中,
Figure SMS_36
为余弦相似度。
S304,根据平均对比度和余弦相似度计算第一相似度。
在本发明的一个实施例中,可通过以下公式计算第一相似度:
Figure SMS_37
, (5)
其中,
Figure SMS_38
为余弦相似度,/>
Figure SMS_39
为第一相似度,/>
Figure SMS_40
为预设权重值。其中,/>
Figure SMS_41
,/>
Figure SMS_42
可根据实际情况进行标定。
S305,根据第一相似度计算对应的交互奖励。
在本发明的一个实施例中,通过以下公式计算交互奖励:
Figure SMS_43
, (6)
其中,
Figure SMS_44
为交互奖励。
S4,根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型。
具体而言,在通过前一时刻的决策
Figure SMS_45
控制智能体运动至当前点位,并控制智能体在当前点位进行拍摄以获取相应的观测图像/>
Figure SMS_46
后,可根据观测图像/>
Figure SMS_47
通过上述实施例的计算方式计算对应的交互奖励,此时,可根据该交互奖励对第一强化学习模型中的参数进行相应的优化。/>
需要说明的是,本发明采用SAC算法来优化智能体,这是一种面向最大化熵的算法,SAC采用的是一种随机的连续策略,相比确定性策略来说更适合当前的飞拍场景。
S5,将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。
具体而言,在通过上述方式获取第二强化学习模型后,可将虚拟飞拍仿真环境中的第二强化学习模型迁移至真实场景中,具体地,可将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,然后,通过飞拍控制模型控制机械臂在目标环境中运动,以实现飞拍。
需要说明的是,为了进一步确保飞拍控制的准确性,在获取飞拍控制模型后,在通过飞拍控制模型控制机械臂与目标环境交互的过程中,可进一步对飞拍控制模型进行优化,其中,可采用现有技术中的优化方式进行优化,在此不再详述。
由此,本发明采用两阶段的模型训练方式,首先在虚拟飞拍仿真环境中快速实现模型的初步迭代,然后再将训练好的模型迁移到真实场景,由此可以快速地实现模型在真实场景的优化,从而大大提高了飞拍的准确度和效率。
综上所述,根据本发明实施例的飞拍控制方法,建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,以及采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像,以及根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,并根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型,以及将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例的飞拍控制方法,本发明还提出了一种飞拍控制系统。
如图3所示,本发明实施例的飞拍控制系统可包括:构建模块100、第一控制模块200、计算模块300、获取模块400和第二控制模块500。
其中,构建模块100用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;第一控制模块200用于采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像;计算模块300用于根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励;获取模块400用于根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型;第二控制模块500用于将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。
在本发明的一个实施例中,计算模块300具体用于:获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个第一深度特征和n个第二深度特征计算平均对比度;对n个第一深度特征进行平均值计算以获取第一平均特征,并对n个第二深度特征进行平均值计算以获取第二平均特征,以及计算第一平均特征和第二平均特征的余弦相似度;根据平均对比度和余弦相似度计算第一相似度;根据第一相似度计算对应的交互奖励。
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算平均对比度:
Figure SMS_48
其中,
Figure SMS_49
为n个第一深度特征的集合,/>
Figure SMS_50
为n个第二深度特征的集合,/>
Figure SMS_51
为第i个第一深度特征,/>
Figure SMS_52
为第i个第二深度特征,/>
Figure SMS_53
为平均对比度。
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算第一相似度:
Figure SMS_54
其中,
Figure SMS_55
为余弦相似度,/>
Figure SMS_56
为第一相似度,/>
Figure SMS_57
为预设权重值。
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算交互奖励:
Figure SMS_58
其中,
Figure SMS_59
为交互奖励。
需要说明的是,本发明的飞拍控制系统更具体的实施例可参照上述的飞拍控制方法的实施例,为避免冗余,在此不再详述。
根据本发明实施例的飞拍控制系统,通过构建模块建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,以及通过第一控制模块采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像,以及通过计算模块根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,并通过获取模块根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型,以及通过第二控制模块将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例,本发明还提出了一种计算机设备。
本发明实施例的计算机设备可包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时,实现上述的飞拍控制方法。
根据本发明实施例的计算机设备,通过上述的飞拍控制方法,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例,本发明还提出了一种非临时性计算机可读存储介质。
本发明实施例的非临时性计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述的飞拍控制方法。
根据本发明实施例的非临时性计算机可读存储介质,通过上述的飞拍控制方法,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (7)

1.一种飞拍控制方法,其特征在于,包括以下步骤:
建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;
采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;
根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;
根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;
将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄,其中,根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的所述交互奖励,包括:
获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;
根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;
对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;
根据所述平均对比度和所述余弦相似度计算第一相似度;
根据所述第一相似度计算对应的交互奖励。
2.根据权利要求1所述的飞拍控制方法,其特征在于,通过以下公式计算所述平均对比度:
Figure QLYQS_1
其中,
Figure QLYQS_2
为n个所述第一深度特征的集合,/>
Figure QLYQS_3
为n个所述第二深度特征的集合,/>
Figure QLYQS_4
为第i个所述第一深度特征,/>
Figure QLYQS_5
为第i个所述第二深度特征,/>
Figure QLYQS_6
为所述平均对比度。
3.根据权利要求1所述的飞拍控制方法,其特征在于,通过以下公式计算所述第一相似度:
Figure QLYQS_7
其中,
Figure QLYQS_8
为所述余弦相似度,/>
Figure QLYQS_9
为所述第一相似度,/>
Figure QLYQS_10
为预设权重值。
4.根据权利要求1所述的飞拍控制方法,其特征在于,通过以下公式计算所述交互奖励:
Figure QLYQS_11
其中,
Figure QLYQS_12
为所述交互奖励。
5.一种飞拍控制系统,其特征在于,包括:
构建模块,所述构建模块用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;
第一控制模块,所述第一控制模块用于采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;
计算模块,所述计算模块用于根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励,其中,所述计算模块具体用于:获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;根据所述平均对比度和所述余弦相似度计算第一相似度;根据所述第一相似度计算对应的交互奖励;
获取模块,所述获取模块用于根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;
第二控制模块,所述第二控制模块用于将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现根据权利要求1-4中任一项所述的飞拍控制方法。
7.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现根据权利要求1-4中任一项所述的飞拍控制方法。
CN202310187680.1A 2023-03-02 2023-03-02 飞拍控制方法和系统 Active CN115861829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310187680.1A CN115861829B (zh) 2023-03-02 2023-03-02 飞拍控制方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310187680.1A CN115861829B (zh) 2023-03-02 2023-03-02 飞拍控制方法和系统

Publications (2)

Publication Number Publication Date
CN115861829A CN115861829A (zh) 2023-03-28
CN115861829B true CN115861829B (zh) 2023-05-30

Family

ID=85659650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310187680.1A Active CN115861829B (zh) 2023-03-02 2023-03-02 飞拍控制方法和系统

Country Status (1)

Country Link
CN (1) CN115861829B (zh)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH114398A (ja) * 1997-06-11 1999-01-06 Hitachi Ltd デジタルワイドカメラ
CN106231191A (zh) * 2016-08-01 2016-12-14 广州优飞信息科技有限公司 全自动空中全景数据采集系统、方法及控制终端
CN112131661A (zh) * 2020-09-10 2020-12-25 南京大学 一种无人机自主跟拍运动目标的方法
CN112734759B (zh) * 2021-03-30 2021-06-29 常州微亿智造科技有限公司 飞拍拍摄触发点的确定方法和装置

Also Published As

Publication number Publication date
CN115861829A (zh) 2023-03-28

Similar Documents

Publication Publication Date Title
US20230330848A1 (en) Reinforcement and imitation learning for a task
CN108305275B (zh) 主动跟踪方法、装置及系统
CN111476116A (zh) 一种用于车辆检测跟踪的旋翼无人机系统及检测跟踪方法
CN108367436B (zh) 针对三维空间中的对象位置和范围的主动相机移动确定
TWI802820B (zh) 機器人控制裝置、方法和儲存媒體
EP3793783A1 (en) System and methods for pixel based model predictive control
WO2021016352A1 (en) Machine learned registration and multi-modal regression
JP7110884B2 (ja) 学習装置、制御装置、学習方法、及び学習プログラム
JP2020126617A (ja) フォールトトレランス及びフラクチュエーションロバスト性のための複数のニューラルネットワークを使用して揺れるカメラにより生成されたビデオからジッタリングを取り除くための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置
CN105631859A (zh) 三自由度仿生立体视觉系统
CN113252007B (zh) 用于工件质检的飞拍控制参数确定方法和装置
CN112734759B (zh) 飞拍拍摄触发点的确定方法和装置
CN115861829B (zh) 飞拍控制方法和系统
CN113129373B (zh) 一种基于卷积神经网络的室内移动机器人视觉定位方法
CN116051658B (zh) 基于双目视觉进行目标检测的相机手眼标定方法及装置
CN112802186A (zh) 基于二值化特征编码匹配的动态场景实时三维重建方法
CN112720504A (zh) 从rgbd视频中学习手与物体交互运动控制方法和装置
CN114972462A (zh) 对眼底相机的工作距离对齐效果进行优化的方法及其相关产品
CN114332156A (zh) 基于图卷积神经网络的实时三维运动补全方法
CN114594768A (zh) 一种基于视觉特征图重构的移动机器人导航决策方法
JP6847424B2 (ja) 検出装置、検出方法、コンピュータプログラム及び学習モデル
Zhang et al. Research on Binocular Stereo Vision Ranging Based on Improved YOLOv5s
CN116486006A (zh) 工业元宇宙的3d模型构建方法和系统
CN117150881A (zh) 仿生机器鱼导航任务的强化学习训练回路方法及装置
Prucksakorn et al. Self-calibrating active depth perception via motion parallax

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant