CN115861829B - 飞拍控制方法和系统 - Google Patents
飞拍控制方法和系统 Download PDFInfo
- Publication number
- CN115861829B CN115861829B CN202310187680.1A CN202310187680A CN115861829B CN 115861829 B CN115861829 B CN 115861829B CN 202310187680 A CN202310187680 A CN 202310187680A CN 115861829 B CN115861829 B CN 115861829B
- Authority
- CN
- China
- Prior art keywords
- fly
- swatter
- features
- virtual
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000004088 simulation Methods 0.000 claims abstract description 53
- 230000002787 reinforcement Effects 0.000 claims abstract description 45
- 230000003993 interaction Effects 0.000 claims abstract description 41
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Feedback Control In General (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种飞拍控制方法和系统,该方法包括:建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像;根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励;根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型;将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
Description
技术领域
本发明涉及视觉检测技术领域,具体涉及一种飞拍控制方法和一种飞拍控制系统。
背景技术
在工业视觉检测领域,需要对待测工件进行多角度拍摄以用于检测工件表面缺陷,飞拍装置(包括机械臂和安装在机械臂末端的相机)能够实现在运动中取图并确定相机拍摄点位。
相关技术中,通常是控制机械臂带动摄像头在目标环境中拍照收集数据,以根据收集到的数据对机械臂的控制策略进行优化,但是,优化过程较为漫长,并且随着拍摄点位和成像设备像素的增加,其优化效果较差,飞拍的准确度和效率均较低。
发明内容
本发明为解决上述技术问题,提供了一种飞拍控制方法和系统,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
本发明采用的技术方案如下:
一种飞拍控制方法,包括以下步骤:建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
在本发明的一个实施例中,根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的所述交互奖励,包括:获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;根据所述平均对比度和所述余弦相似度计算第一相似度;根据所述第一相似度计算对应的交互奖励。
在本发明的一个实施例中,通过以下公式计算所述平均对比度:
在本发明的一个实施例中,通过以下公式计算所述第一相似度:
在本发明的一个实施例中,通过以下公式计算所述交互奖励:
一种飞拍控制系统,包括:构建模块,所述构建模块用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;第一控制模块,所述第一控制模块用于采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;计算模块,所述计算模块用于根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;获取模块,所述获取模块用于根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;第二控制模块,所述第二控制模块用于将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现上述的飞拍控制方法。
一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的飞拍控制方法。
本发明的有益效果:
本发明通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
附图说明
图1为本发明实施例的飞拍控制方法的流程图;
图2为本发明一个实施例的计算智能体与虚拟飞拍仿真环境的交互奖励的方法的流程图;
图3为本发明一个实施例的飞拍控制系统的方框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是根据本发明实施例的飞拍控制方法的流程图。
如图1所示,本发明实施例的飞拍控制方法可包括以下步骤:
S1,建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体。
具体而言,在本发明的一个实施例中,可通过仿真软件或者仿真程序搭建与目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,例如,可采用gazebo仿真器搭建与目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体。
S2,采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像。
具体而言,采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,可包括以下步骤:在当前时刻,控制智能体进行拍摄以获取相应的观测图像,并在获取观测图像/>后,做出决策/>以控制智能体运动至下一个点位。当智能体运动至下一个点位后,控制智能体进行拍摄以获取新的观测图像/>,即下一时刻对应的观测图像,以此类推,直至智能体运动至最后一个点位,并获取对应的观测图像。
S3,根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励。
具体而言,在每个时刻,均根据当前时刻获取的观测图像计算智能体与虚拟飞拍仿真环境的交互奖励。
在本发明的一个实施例中,如图2所示,根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,可包括以下步骤:
S301,获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征。其中,n为正整数。
具体而言,可采用开源的预训练模型,例如,VGG模型、RestNet模型、Inception-Net模型等,分别获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征。其中,第一深度特征和第二深度特征的大小可为w×h×k,第一深度特征和第二深度特征的大小可根据实际情况进行标定。其中,目标图像可为理想状态下智能体拍摄的图像。
S302,根据n个第一深度特征和n个第二深度特征计算平均对比度。
在本发明的一个实施例中,根据n个第一深度特征和n个第二深度特征可通过以下公式计算平均对比度:
其中,为n个第一深度特征的集合,即/>,/>为第1个第一深度特征,/>为第2个第一深度特征,......,/>为第n个第一深度特征,/>为n个第二深度特征的集合,即/>,/>为第1个第二深度特征,/>为第2个第二深度特征,......,/>为第n个第二深度特征,/>为第i个第一深度特征,/>为第i个第二深度特征,/>为平均对比度。
S303,对n个第一深度特征进行平均值计算以获取第一平均特征,并对n个第二深度特征进行平均值计算以获取第二平均特征,以及计算第一平均特征和第二平均特征的余弦相似度。
具体而言,首先,可通过以下公式生成第一平均特征:
并通过以下公式生成第二平均特征:
然后,通过以下公式生成第一平均特征和第二平均特征的余弦相似度:
S304,根据平均对比度和余弦相似度计算第一相似度。
在本发明的一个实施例中,可通过以下公式计算第一相似度:
S305,根据第一相似度计算对应的交互奖励。
在本发明的一个实施例中,通过以下公式计算交互奖励:
S4,根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型。
具体而言,在通过前一时刻的决策控制智能体运动至当前点位,并控制智能体在当前点位进行拍摄以获取相应的观测图像/>后,可根据观测图像/>通过上述实施例的计算方式计算对应的交互奖励,此时,可根据该交互奖励对第一强化学习模型中的参数进行相应的优化。/>
需要说明的是,本发明采用SAC算法来优化智能体,这是一种面向最大化熵的算法,SAC采用的是一种随机的连续策略,相比确定性策略来说更适合当前的飞拍场景。
S5,将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。
具体而言,在通过上述方式获取第二强化学习模型后,可将虚拟飞拍仿真环境中的第二强化学习模型迁移至真实场景中,具体地,可将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,然后,通过飞拍控制模型控制机械臂在目标环境中运动,以实现飞拍。
需要说明的是,为了进一步确保飞拍控制的准确性,在获取飞拍控制模型后,在通过飞拍控制模型控制机械臂与目标环境交互的过程中,可进一步对飞拍控制模型进行优化,其中,可采用现有技术中的优化方式进行优化,在此不再详述。
由此,本发明采用两阶段的模型训练方式,首先在虚拟飞拍仿真环境中快速实现模型的初步迭代,然后再将训练好的模型迁移到真实场景,由此可以快速地实现模型在真实场景的优化,从而大大提高了飞拍的准确度和效率。
综上所述,根据本发明实施例的飞拍控制方法,建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,以及采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像,以及根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,并根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型,以及将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例的飞拍控制方法,本发明还提出了一种飞拍控制系统。
如图3所示,本发明实施例的飞拍控制系统可包括:构建模块100、第一控制模块200、计算模块300、获取模块400和第二控制模块500。
其中,构建模块100用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;第一控制模块200用于采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像;计算模块300用于根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励;获取模块400用于根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型;第二控制模块500用于将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。
在本发明的一个实施例中,计算模块300具体用于:获取当前时刻拍摄的观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个第一深度特征和n个第二深度特征计算平均对比度;对n个第一深度特征进行平均值计算以获取第一平均特征,并对n个第二深度特征进行平均值计算以获取第二平均特征,以及计算第一平均特征和第二平均特征的余弦相似度;根据平均对比度和余弦相似度计算第一相似度;根据第一相似度计算对应的交互奖励。
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算平均对比度:
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算第一相似度:
在本发明的一个实施例中,计算模块300具体用于通过以下公式计算交互奖励:
需要说明的是,本发明的飞拍控制系统更具体的实施例可参照上述的飞拍控制方法的实施例,为避免冗余,在此不再详述。
根据本发明实施例的飞拍控制系统,通过构建模块建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体,以及通过第一控制模块采用第一强化学习模型控制智能体与虚拟飞拍仿真环境进行交互,并获取智能体在虚拟飞拍仿真环境中拍摄的观测图像,以及通过计算模块根据观测图像计算智能体与虚拟飞拍仿真环境的交互奖励,并通过获取模块根据交互奖励对第一强化学习模型进行优化以获取第二强化学习模型,以及通过第二控制模块将第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过飞拍控制模型控制机械臂在目标环境中运动至对应的拍摄点进行拍摄。由此,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例,本发明还提出了一种计算机设备。
本发明实施例的计算机设备可包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时,实现上述的飞拍控制方法。
根据本发明实施例的计算机设备,通过上述的飞拍控制方法,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
对应上述实施例,本发明还提出了一种非临时性计算机可读存储介质。
本发明实施例的非临时性计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述的飞拍控制方法。
根据本发明实施例的非临时性计算机可读存储介质,通过上述的飞拍控制方法,通过在虚拟飞拍仿真环境中训练强化学习模型,并将强化学习模型迁移到真实环境中进行飞拍控制,从而大大提高了飞拍的准确度和效率。
在本发明的描述中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必针对相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (7)
1.一种飞拍控制方法,其特征在于,包括以下步骤:
建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;
采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;
根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励;
根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;
将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄,其中,根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的所述交互奖励,包括:
获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;
根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;
对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;
根据所述平均对比度和所述余弦相似度计算第一相似度;
根据所述第一相似度计算对应的交互奖励。
5.一种飞拍控制系统,其特征在于,包括:
构建模块,所述构建模块用于建立目标环境对应的虚拟飞拍仿真环境,并构建机械臂对应的智能体;
第一控制模块,所述第一控制模块用于采用第一强化学习模型控制所述智能体与所述虚拟飞拍仿真环境进行交互,并获取所述智能体在所述虚拟飞拍仿真环境中拍摄的观测图像;
计算模块,所述计算模块用于根据所述观测图像计算所述智能体与所述虚拟飞拍仿真环境的交互奖励,其中,所述计算模块具体用于:获取当前时刻拍摄的所述观测图像的n个第一深度特征,以及对应的目标图像的n个第二深度特征,其中,n为正整数;根据n个所述第一深度特征和n个所述第二深度特征计算平均对比度;对n个所述第一深度特征进行平均值计算以获取第一平均特征,并对n个所述第二深度特征进行平均值计算以获取第二平均特征,以及计算所述第一平均特征和所述第二平均特征的余弦相似度;根据所述平均对比度和所述余弦相似度计算第一相似度;根据所述第一相似度计算对应的交互奖励;
获取模块,所述获取模块用于根据所述交互奖励对所述第一强化学习模型进行优化以获取第二强化学习模型;
第二控制模块,所述第二控制模块用于将所述第二强化学习模型的卷积神经网络的参数值作为初始值构建飞拍控制模型,并通过所述飞拍控制模型控制所述机械臂在所述目标环境中运动至对应的拍摄点进行拍摄。
6.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现根据权利要求1-4中任一项所述的飞拍控制方法。
7.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现根据权利要求1-4中任一项所述的飞拍控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310187680.1A CN115861829B (zh) | 2023-03-02 | 2023-03-02 | 飞拍控制方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310187680.1A CN115861829B (zh) | 2023-03-02 | 2023-03-02 | 飞拍控制方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115861829A CN115861829A (zh) | 2023-03-28 |
CN115861829B true CN115861829B (zh) | 2023-05-30 |
Family
ID=85659650
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310187680.1A Active CN115861829B (zh) | 2023-03-02 | 2023-03-02 | 飞拍控制方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115861829B (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH114398A (ja) * | 1997-06-11 | 1999-01-06 | Hitachi Ltd | デジタルワイドカメラ |
CN106231191A (zh) * | 2016-08-01 | 2016-12-14 | 广州优飞信息科技有限公司 | 全自动空中全景数据采集系统、方法及控制终端 |
CN112131661A (zh) * | 2020-09-10 | 2020-12-25 | 南京大学 | 一种无人机自主跟拍运动目标的方法 |
CN112734759B (zh) * | 2021-03-30 | 2021-06-29 | 常州微亿智造科技有限公司 | 飞拍拍摄触发点的确定方法和装置 |
-
2023
- 2023-03-02 CN CN202310187680.1A patent/CN115861829B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115861829A (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230330848A1 (en) | Reinforcement and imitation learning for a task | |
CN108305275B (zh) | 主动跟踪方法、装置及系统 | |
CN111476116A (zh) | 一种用于车辆检测跟踪的旋翼无人机系统及检测跟踪方法 | |
CN108367436B (zh) | 针对三维空间中的对象位置和范围的主动相机移动确定 | |
TWI802820B (zh) | 機器人控制裝置、方法和儲存媒體 | |
EP3793783A1 (en) | System and methods for pixel based model predictive control | |
WO2021016352A1 (en) | Machine learned registration and multi-modal regression | |
JP7110884B2 (ja) | 学習装置、制御装置、学習方法、及び学習プログラム | |
JP2020126617A (ja) | フォールトトレランス及びフラクチュエーションロバスト性のための複数のニューラルネットワークを使用して揺れるカメラにより生成されたビデオからジッタリングを取り除くための学習方法及び学習装置、そしてそれを利用したテスト方法及びテスト装置 | |
CN105631859A (zh) | 三自由度仿生立体视觉系统 | |
CN113252007B (zh) | 用于工件质检的飞拍控制参数确定方法和装置 | |
CN112734759B (zh) | 飞拍拍摄触发点的确定方法和装置 | |
CN115861829B (zh) | 飞拍控制方法和系统 | |
CN113129373B (zh) | 一种基于卷积神经网络的室内移动机器人视觉定位方法 | |
CN116051658B (zh) | 基于双目视觉进行目标检测的相机手眼标定方法及装置 | |
CN112802186A (zh) | 基于二值化特征编码匹配的动态场景实时三维重建方法 | |
CN112720504A (zh) | 从rgbd视频中学习手与物体交互运动控制方法和装置 | |
CN114972462A (zh) | 对眼底相机的工作距离对齐效果进行优化的方法及其相关产品 | |
CN114332156A (zh) | 基于图卷积神经网络的实时三维运动补全方法 | |
CN114594768A (zh) | 一种基于视觉特征图重构的移动机器人导航决策方法 | |
JP6847424B2 (ja) | 検出装置、検出方法、コンピュータプログラム及び学習モデル | |
Zhang et al. | Research on Binocular Stereo Vision Ranging Based on Improved YOLOv5s | |
CN116486006A (zh) | 工业元宇宙的3d模型构建方法和系统 | |
CN117150881A (zh) | 仿生机器鱼导航任务的强化学习训练回路方法及装置 | |
Prucksakorn et al. | Self-calibrating active depth perception via motion parallax |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |