CN109690440B - 一种无人机的飞行控制方法及无人机 - Google Patents
一种无人机的飞行控制方法及无人机 Download PDFInfo
- Publication number
- CN109690440B CN109690440B CN201780054731.6A CN201780054731A CN109690440B CN 109690440 B CN109690440 B CN 109690440B CN 201780054731 A CN201780054731 A CN 201780054731A CN 109690440 B CN109690440 B CN 109690440B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- wearable device
- target object
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0016—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Abstract
一种无人机的飞行控制方法及无人机,该方法包括:获取目标物体所佩戴的穿戴设备的位置信息和动作信息(S10),判断穿戴设备的动作信息是否与预设的第一动作模板相匹配(S12),并在匹配时,根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内(S14),从而用户通过便携的穿戴设备即可实现控制无人机飞行,而不需要携带笨重的控制器,提高无人机控制的便利性。
Description
【技术领域】
本发明涉及无人机通信领域,特别是涉及一种无人机的飞行控制方法及无人机。
【背景技术】
目前消费级无人机市场正在蓬勃的发展中,而大部分的消费级别的无人机都是用于航拍。航拍中常利用视觉跟踪技术控制无人机自动跟随目标物体飞行。但是,现有的视觉跟踪技术难以获得目标物体的位置,并且在目标物体经过障碍物后难以识别,容易使得无人机跟丢目标物体。
此外,现有技术中常采用遥控器控制无人机,但当用户到户外参与滑雪、登山、山地自行车骑行等活动时,携带较为笨重的遥控器及其不便。
【发明内容】
本发明主要解决的技术问题是提供一种无人机的飞行控制方法及无人机,能够解决现有技术中利用视觉跟踪技术的无人机容易跟丢目标物体以及携带遥控器不便的问题。
为解决上述技术问题,本发明采用的第一个技术方案是:提供一种无人机的飞行控制方法,包括:获取目标物体所佩戴的穿戴设备的位置信息和动作信息;判断穿戴设备的动作信息是否与预设的第一动作模板相匹配;若与第一动作模板相匹配,则根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第一动作模板对应于目标物体的挥手动作。
其中,根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整的步骤包括:根据穿戴设备的水平位置信息与无人机的水平位置信息调整无人机的水平飞行位置,以将无人机与穿戴设备的水平相对距离调整到第一预定距离范围内;根据穿戴设备的高度信息与无人机的高度信息调整无人机的飞行高度,以将无人机与穿戴设备的相对高度调整到第二预定距离范围内;根据无人机和穿戴设备的水平相对距离和相对高度计算无人机与穿戴设备之间连线相对于水平方向或竖直方向的夹角,并根据该夹角调整成像设备的拍摄角度,以使得成像设备的光轴方向调整到相对于无人机与穿戴设备之间连线处于预定角度范围内;根据无人机和穿戴设备的水平相对距离和相对高度调整成像设备的焦距,使得目标物体在成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
其中,该方法进一步包括:从成像设备的拍摄画面内对目标物体进行视觉识别。
其中,从成像设备的拍摄画面内对目标物体进行视觉识别的步骤包括:对拍摄画面中的至少两个候选物体进行动作识别,以分别获取至少两个候选物体的动作信息;将至少两个候选物体的动作信息与穿戴设备的动作信息或第一动作模板进行匹配;将相匹配的候选物体作为目标物体。
其中,该方法进一步包括:结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪。
其中,结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪的步骤包括:根据穿戴设备的位置信息调整无人机的飞行位置,并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度。
其中,结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪的步骤进一步包括:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否大于预设阈值;若大于预设阈值,则重新根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
其中,重新根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整的步骤之后,进一步包括:重新对目标物体进行视觉识别。
其中,该方法进一步包括:判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配;若与第二动作模板相匹配,则对无人机进行方位调整。
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第二动作模板对应于目标物体的手腕翻转动作。
其中,判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤之前,进一步包括:获取穿戴设备的姿态信息;判断穿戴设备的姿态信息是否满足预设的方位调整触发条件;若满足方位调整触发条件,则执行判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤。
其中,判断穿戴设备的姿态信息是否满足预设的方位调整触发条件的步骤包括:根据穿戴设备的姿态信息和无人机与穿戴设备之间的相对位置关系,判断目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线是否处于预设角度范围内;若处于预设角度范围内,则满足方位调整触发条件。
其中,对无人机进行方位调整的步骤包括:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系。
其中,根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系的步骤包括:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线始终保持在预设角度范围内。
其中,根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系的步骤包括:记录目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线之间的夹角;以该夹角作为补偿值根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得调整后的目标物体的佩戴有穿戴设备的肢体的指向和无人机与穿戴设备之间连线彼此重合。
为解决上述技术问题,本发明采用的第二个技术方案是:提供一种无人机的飞行控制方法,包括:获取目标物体所佩戴的穿戴设备的位置信息;结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪。
其中,结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪的步骤包括:根据穿戴设备的位置信息调整无人机的飞行位置,并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度。
其中,该方法进一步包括:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否大于第一预设阈值;若大于第一预设阈值,则根据穿戴设备的位置信息对无人机的飞行位置进行调整,以使得无人机处于穿戴设备的预定距离范围内。
其中,根据穿戴设备的位置信息对无人机的飞行位置进行调整的步骤之后,进一步包括:对无人机的所搭载的成像设备的拍摄角度进行调整,以使得目标物体处于成像设备的预定拍摄范围内。
其中,该方法进一步包括:从成像设备的拍摄画面内对目标物体进行视觉识别。
其中,该方法进一步包括:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异不大于第一预设阈值的持续时间是否大于第二预设阈值;若持续时间大于第二预设阈值,则结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪;否则,重新根据穿戴设备的位置信息对无人机的飞行位置进行调整。
为解决上述技术问题,本发明采用的第三个技术方案是:提供一种无人机,包括:无线通信电路,用于获取目标物体所佩戴的穿戴设备的位置信息和动作信息;处理器,耦接无线通信电路,用于判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在穿戴设备的动作信息与第一动作模板相匹配时,根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第一动作模板对应于目标物体的挥手动作。
其中,处理器根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整具体包括:根据穿戴设备的水平位置信息与无人机的水平位置信息调整无人机的水平飞行位置,以将无人机与穿戴设备的水平相对距离调整到第一预定距离范围内;根据穿戴设备的高度信息与无人机的高度信息调整无人机的飞行高度,以将无人机与穿戴设备的相对高度调整到第二预定距离范围内;根据无人机和穿戴设备的水平相对距离和相对高度计算无人机与穿戴设备之间连线相对于水平方向或竖直方向的夹角,并根据该夹角调整成像设备的拍摄角度,以使得成像设备的光轴方向调整到相对于无人机与穿戴设备之间连线处于预定角度范围内;根据无人机和穿戴设备的水平相对距离和相对高度调整成像设备的焦距,使得目标物体在成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
其中,处理器进一步用于:从成像设备的拍摄画面内对目标物体进行视觉识别。
其中,处理器从成像设备的拍摄画面内对目标物体进行视觉识别具体包括:对拍摄画面中的至少两个候选物体进行动作识别,以分别获取至少两个候选物体的动作信息;将至少两个候选物体的动作信息与穿戴设备的动作信息或第一动作模板进行匹配;将相匹配的候选物体作为目标物体。
其中,处理器进一步用于:结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪。
其中,处理器结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪具体包括:根据穿戴设备的位置信息调整无人机的飞行位置,并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度。
其中,处理器结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪的步骤进一步包括:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否大于预设阈值;若大于预设阈值,则重新根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整。
其中,处理器重新根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整之后,进一步用于:重新对目标物体进行视觉识别。
其中,处理器进一步用于:判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,并在所获得的动作信息与第二动作模板相匹配时,对无人机进行方位调整。
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第二动作模板对应于目标物体的手腕翻转动作。
其中,处理器判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配之前,无线通信电路进一步用于获取穿戴设备的姿态信息;处理器进一步用于判断穿戴设备的姿态信息是否满足预设的方位调整触发条件,并在满足方位调整触发条件时,执行判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤。
其中,处理器判断穿戴设备的姿态信息是否满足预设的方位调整触发条件具体包括:根据穿戴设备的姿态信息和无人机与穿戴设备之间的相对位置关系,判断目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线是否处于预设角度范围内,并在处于预设角度范围内时,判定穿戴设备的姿态信息满足方位调整触发条件。
其中,处理器对无人机进行方位调整具体包括:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系。
其中,处理器根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系具体包括:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线始终保持在预设角度范围内。
其中,处理器根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系具体包括:记录目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线之间的夹角;以该夹角作为补偿值根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得调整后的目标物体的佩戴有穿戴设备的肢体的指向和无人机与穿戴设备之间连线彼此重合。
为解决上述技术问题,本发明采用的第四个技术方案是:提供一种无人机,包括:无线通信电路,用于获取目标物体所佩戴的穿戴设备的位置信息;处理器,耦接无线通信电路,用于结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪。
其中,处理器结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪具体包括:根据穿戴设备的位置信息调整无人机的飞行位置,并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度。
其中,处理器进一步用于:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否大于第一预设阈值,并在大于第一预设阈值时,根据穿戴设备的位置信息对无人机的飞行位置进行调整,以使得无人机处于穿戴设备的预定距离范围内。
其中,处理器根据穿戴设备的位置信息对无人机的飞行位置进行调整之后,进一步用于:对无人机的所搭载的成像设备的拍摄角度进行调整,以使得目标物体处于成像设备的预定拍摄范围内。
其中,处理器进一步用于:从成像设备的拍摄画面内对目标物体进行视觉识别。
其中,处理器进一步用于:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异不大于第一预设阈值的持续时间是否大于第二预设阈值,并在持续时间大于第二预设阈值时,结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪,在持续时间不大于所述第二预设阈值时,重新根据穿戴设备的位置信息对无人机的飞行位置进行调整。
本发明的有益效果是:区别于现有技术的情况,本发明的实施例通过获取目标物体所佩戴的穿戴设备的位置信息和动作信息,判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在匹配时,根据穿戴设备的位置信息对无人机的飞行位置和无人机的所搭载的成像设备的拍摄角度中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内,从而用户通过便携的穿戴设备即可实现控制无人机飞行,而不需要携带笨重的控制器,提高无人机控制的便利性;
另外,本发明的实施例通过结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪,从而采用穿戴设备的位置信息弥补视觉识别不稳定的问题,提高目标跟踪的准确性。
【附图说明】
图1是本发明无人机的飞行控制方法第一实施方式的流程示意图;
图2是图1中步骤S14执行前后无人机和目标物体之间相对位置变化示意图;
图3是本发明无人机的飞行控制方法第二实施方式的流程示意图;
图4是本发明无人机的飞行控制方法第三实施方式的流程示意图;
图5是步骤S3211执行前后无人机和目标物体之间相对位置变化示意图;
图6是步骤S3213执行前后无人机和目标物体之间相对位置变化示意图;
图7是步骤S301判断是否满足无人机方位调整触发条件的过程示意图;
图8本发明无人机一实施方式的结构示意图。
【具体实施方式】
为使本领域的技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明所提供的无人机的飞行控制方法及无人机做进一步详细描述。
请参阅图1,图1是本发明无人机的飞行控制方法第一实施方式的流程示意图。如图1所示,本发明无人机的飞行控制方法包括:
步骤S10:获取目标物体所佩戴的穿戴设备的位置信息和动作信息;
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表;位置信息是穿戴设备的GPS位置数据;动作信息是穿戴设备的姿态数据,包括加速度、角速度或者运动轨迹等至少一种数据,该动作信息通过穿戴设备的惯性测量单元或者磁力计等传感器检测得到的。当然,在其他实施方式中,穿戴设备也可以是佩戴于目标物体手指上的戒指等其他类型的设备,此处不做具体限定。
具体地,目标物体所佩戴的穿戴设备预先与无人机绑定,通过无线通信链路,例如4G网络、wifi、蓝牙等,可以与无人机进行通信。
步骤S12:判断穿戴设备的动作信息是否与预设的第一动作模板相匹配;
其中,第一动作模板是预先设置的姿态数据,并且预先与无人机的某一/些控制指令向关联。
具体地,在一个应用例中,第一动作模板对应于目标物体的挥手动作,即第一动作模板是目标物体挥手时,目标物体所佩戴的穿戴设备产生的动作信息,当无人机获得的目标物体的动作信息,例如加速度,与第一动作模板的加速度数据相同或者两者的偏差小于一定范围时,则判定获取的动作信息与第一动作模板相匹配,否则不匹配。当然,在其他应用例中,第一动作模板可以对应与目标物体的抬手动作等其他动作,匹配判断过程也可以采用判断方差等其他方法,此处不做具体限定。
步骤S14:若与第一动作模板相匹配,则根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
进一步地,步骤S14包括:
步骤S141:根据穿戴设备的水平位置信息与无人机的水平位置信息调整无人机的水平飞行位置,以将无人机与穿戴设备的水平相对距离调整到第一预定距离范围内;
其中,第一预定距离范围是预先设置的第一距离阈值范围,可以根据具体需求设置,此处不做具体限定;穿戴设备的水平位置信息可以通过穿戴设备上传的GPS位置数据获得,无人机的水平位置信息可以通过无人机的GPS定位仪获得。
具体地,如图2所示,在上述应用例中,无人机10判定获取的动作信息与第一动作模板相匹配时,根据穿戴设备20的水平位置信息与无人机10的水平位置信息,即根据穿戴设备20的GPS位置数据和无人机10的GPS位置数据,计算无人机10和穿戴设备20之间的水平相对距离,进而调整无人机10的水平飞行位置,例如从图2中的A位置飞行到B位置,使得无人机10与穿戴设备20之间的水平相对距离逐渐减少/增加到第一预定距离范围内(例如1-2米范围内),如图2中从X1减少到X2。
步骤S142:根据穿戴设备的高度信息与无人机的高度信息调整无人机的飞行高度,以将无人机与穿戴设备的相对高度调整到第二预定距离范围内;
其中,第二预定距离范围是预先设置的第二距离阈值范围,可以根据具体需求设置,此处不做具体限定。
具体地,进一步参阅图2,在一个应用例中,穿戴设备20的高度信息可以默认为与地面同一高度,无人机10的高度信息可以通过无人机10的超声波传感器或气压计等设备获得;根据穿戴设备20的高度信息与无人机10的高度信息,可以计算穿戴设备20和无人机10之间的高度差,进而可以调整无人机10的飞行高度,例如从图2中的A位置飞行到B位置,以将无人机10和穿戴设备20之间的相对高度逐渐减少/增加到第二预定距离范围内(例如3-4米范围内),如图2中从H1减少到H2。当然,在其他应用例中,穿戴设备20的高度信息也可以设置为与其他默认高度值,或者通过其他传感器获取,无人机10的高度信息也可以通过双目视觉系统测量,此处不做具体限定。
步骤S143:根据无人机和穿戴设备的水平相对距离和相对高度计算无人机与穿戴设备之间连线相对于水平方向或竖直方向的夹角,并根据该夹角调整成像设备的拍摄角度,以使得成像设备的光轴方向调整到相对于无人机与穿戴设备之间连线处于预定角度范围内。
其中,预定角度范围是预先设置的角度阈值范围,可以根据具体需求设置,此处不做具体限定。
具体地,如图2所示,根据无人机10和穿戴设备20的水平相对距离X2和相对高度H2,计算无人机10与穿戴设备20之间连线(如图2中的CD连线)相对于水平方向或竖直方向的夹角θ1或θ2,根据该夹角调整成像设备101的拍摄角度,使得成像设备101的光轴方向(如图2中的DE连线方向)调整到相对于无人机10与穿戴设备20之间连线(即CD连线)处于预定角度范围内(例如0-10度范围内),例如图2中的α角不大于10度。
步骤S144:根据无人机和穿戴设备的水平相对距离和相对高度调整成像设备的焦距,使得目标物体在成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
其中,预定比例范围是预先设置的目标物体成像的预设比例范围,可以根据具体需求设置,此处不做具体限定。
具体地,在上述应用例中,如图2所示,当无人机10位于B位置时,经过上述步骤,目标物体30已经处于无人机10所搭载的成像设备101的拍摄范围内,此时,可以基于光学成像原理,根据无人机10和穿戴设备20之间的水平相对距离X2以及相对高度H2,可以计算出无人机10与穿戴设备20之间的距离,从而根据该距离对应调整成像设备101的焦距,逐渐放大/缩小拍摄范围,使得目标物体30的成像大小占整个拍摄画面的比例处于预定比例范围内,例如25%-35%范围内。
本实施方式中,上述步骤S141-S144可以只执行其中的一个或多个的组合,例如,在判定获取的动作信息与第一动作模板匹配时,无人机与穿戴设备的相对高度已经在第二预设距离范围内,此时只需要执行步骤S142和S143即可。
当然,在其他实施方式中,也可以根据目标物体在成像设备中的成像大小,调整无人机的飞行位置,以使得目标物体在无人机所搭载的成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内,同时使得无人机与穿戴设备之间的水平相对距离和相对高度逐渐增大/缩小到预定距离范围内,此处不做具体限定。
上述实施方式中,通过获取目标物体所佩戴的穿戴设备的位置信息和动作信息,判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在匹配时,根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内,从而用户通过便携的穿戴设备即可实现控制无人机飞行,而不需要携带笨重的控制器,提高无人机控制的便利性。
请参阅图3,图3是本发明无人机的飞行控制方法第二实施方式的流程示意图。如图3所示,本发明无人机的飞行控制方法包括:
步骤S21:结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪。
进一步地,步骤S21具体包括:
步骤S211:根据穿戴设备的位置信息调整无人机的飞行位置,并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度。
具体地,穿戴设备预先与无人机绑定,在无人机飞行过程中,根据穿戴设备上传的位置信息调整无人机的飞行位置,使得无人机处于穿戴设备的预定距离范围内,例如无人机与穿戴设备之间的直线距离处于预定距离范围内(例如4-5米范围内),并根据视觉识别获得的目标物体的位置信息调整无人机的拍摄角度,使得目标物体处于成像设备的预定拍摄范围内,其中,预定距离范围和预定拍摄范围可以根据实际需求设置,此处不做具体限定。
进一步地,步骤S21之前,包括:
步骤S20:从成像设备的拍摄画面内对目标物体进行视觉识别。
其中,无人机可以通过某一预定动作信息触发视觉识别功能,也可以自动触发视觉识别功能,此处不做具体限定。
在一个应用例中,步骤S20包括:
步骤S201:对拍摄画面中的至少两个候选物体进行动作识别,以分别获取至少两个候选物体的动作信息;
具体地,无人机可以先对拍摄画面进行轮廓识别,选取其中与人体轮廓比较接近的至少两个候选物体进行动作识别,通过视觉识别算法获取至少两个候选物体的动作信息,例如动作轨迹、加速度等信息。当然,在其他应用例中,也可以随机选取画面中的至少两个物体作为候选物体,也可以采用其他选取方式,此处不做具体限定。
步骤S202:将至少两个候选物体的动作信息与穿戴设备的动作信息或第一动作模板进行匹配;
步骤S203:将相匹配的候选物体作为目标物体。
其中,第一动作模板是预先设置的姿态数据,包括对应的动作的加速度、角速度、运动轨迹等至少一种数据。
具体地,将至少两个候选物体的动作信息与穿戴设备上传的动作信息或者是第一动作模板进行匹配,例如判断候选物体的动作的运动轨迹是否与穿戴设备上传的运动轨迹相同,或者在两者之间的差异在容许范围内,其中该容许范围是预先设置的;最后将相匹配的候选物体作为目标物体。
当然,在其他实施方式中,选取候选物体时也可以只选取一个候选物体进行动作匹配,或者随机选取拍摄画面中的其中一个物体作为目标物体,此处不做具体限定。
进一步地,步骤S21包括:
步骤S212:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否大于第一预设阈值;
其中,该第一预设阈值是预先设置的视觉测距的最大容许误差,超过第一预设阈值,则表明视觉测距不可靠,其具体取值可以视具体需求设置,此处不做具体限定。
具体地,无人机可以利用视觉测距算法,例如双目视觉测距,获得目标物体与无人机之间的距离a,同时无人机还可以利用穿戴设备的位置信息和无人机的位置信息,计算无人机与穿戴设备之间的距离b,从而可以计算a、b之间的差异,进而判断该差异是否大于预设阈值,例如0.5米。
步骤S213:若大于第一预设阈值,则重新根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
其中,步骤S213具体包括:
步骤S2131:若大于第一预设阈值,则根据穿戴设备的位置信息对无人机的飞行位置进行调整,以使得无人机处于穿戴设备的预定距离范围内。
其中,本步骤的具体执行过程可以参考上述步骤S141和/或S142,此处不再重复。通过上述步骤,可以在无人机视觉跟踪跟丢目标物体或者视觉跟踪出错时,根据穿戴设备的位置信息控制无人机的飞行,使得无人机重新处于穿戴设备的预设范围内,从而防止无人机跟丢目标。
步骤S2132:对无人机的所搭载的成像设备的拍摄角度进行调整,以使得目标物体处于成像设备的预定拍摄范围内。
步骤S2133:根据无人机和穿戴设备的水平相对距离和相对高度调整成像设备的焦距,使得目标物体在成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
其中,本步骤的具体执行过程可以参考上述步骤S143,此处不再重复。在其他实施方式中,步骤S2131、S2132和S2133也可以只执行其中一个或任意两个的组合,此处不做具体限定。
步骤S214:重新对目标物体进行视觉识别。
具体地,无人机可以利用视觉检测算法,例如通过特征提取辨识,识别目标物体,也可以随机选取拍摄画面中的一个物体作为目标物体,具体过程可以参考上述步骤S20,此处不再重复。
步骤S215:判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异不大于第一预设阈值的持续时间是否大于第二预设阈值;
其中,第二预设阈值是预先设置的视觉测距的稳定时间阈值,超过第二预设阈值则表明视觉测距稳定可靠,其具体取值可以视具体需求设置,此处不做具体限定。
步骤S216:若持续时间大于第二预设阈值,则结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪;否则,重新根据穿戴设备的位置信息对无人机的飞行位置进行调整。
具体地,无人机持续判断穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异是否不大于第一预设阈值,并记录穿戴设备的位置信息和视觉识别获得的目标物体的位置信息之间的差异不大于第一预设阈值的持续时间,若该持续时间大于第二预设阈值(例如1分钟)时,则表明该视觉测距稳定可靠,即无人机的视觉跟踪稳定可靠,此时,可以结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪;否则,表明无人机的视觉跟踪不稳定,重新根据穿戴设备的位置信息对无人机的飞行位置进行调整。
上述实施方式中,通过结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪,从而采用穿戴设备的位置信息弥补视觉识别不稳定的问题,提高目标跟踪的准确性。
本实施方式可以与本发明无人机的飞行控制方法第一实施方式相结合,本实施方式步骤的执行可以在步骤S10或者步骤S14之后。
请参阅图4,图4是本发明无人机的飞行控制方法第三实施方式的流程示意图。如图4所示,本发明无人机的飞行控制方法包括:
步骤S31:判断获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配;
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第二动作模板对应于目标物体的手腕翻转动作。动作信息是穿戴设备的姿态数据,包括加速度、角速度或者运动轨迹等至少一种数据,该动作信息通过穿戴设备的惯性测量单元或者磁力计等传感器检测得到的。当然,在其他实施方式中,穿戴设备也可以是佩戴于目标物体手指上的戒指等其他类型的设备,第二动作模板也可以对应于目标物体的抬手等其他动作,此处不做具体限定。
步骤S32:若与第二动作模板相匹配,则对无人机进行方位调整。
具体地,目标物体所佩戴的穿戴设备预先与无人机绑定,通过无线通信链路向无人机上传动作信息,无人机通过判断获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,例如判断穿戴设备的运动轨迹或者视觉识别得到的目标物体的动作的运动轨迹是否与预设的第二动作模板的运动轨迹相同,或者两者之间的差异在容许范围内,其中该容许范围是预先设置的;若运动轨迹相同或差异在容许范围内,则判定获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息与预设的第二动作模板相匹配,可以对无人机进行方位调整;同时,可以同步调整无人机搭载的成像设备的拍摄角度,使得目标物体始终处于拍摄范围内。
进一步地,步骤S32具体包括:
步骤S321:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系。
其中,姿态信息是通过穿戴设备的磁力计和/或惯性测量单元检测获得的穿戴设备的方位角或欧拉角等数据。
具体地,步骤S321包括:
步骤S3211:根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线始终保持在预设角度范围内。
如图5所示,在一个应用例中,无人机10根据后续获得的穿戴设备20的姿态信息,例如欧拉角,可以得到目标物体30的佩戴有穿戴设备20的肢体301(例如手臂)的指向,如图5中的AB连线方向;在目标物体30的佩戴有穿戴设备20的肢体301的指向发生移动时,如图5中从AB连线方向移动到DE连线方向,同步调整无人机10的飞行位置,例如根据后续获得的穿戴设备20的欧拉角,获取穿戴设备20的偏转角度δ,以该偏转角度δ作为无人机10的飞行角度,在无人机10所处的水平面上,并且在无人机10与目标物体30之间距离不变时,同步调整无人机10的飞行位置,即从M位置飞行到N位置,使得无人机10与穿戴设备20之间的连线AC/DF与手臂的指向AB/DE之间的角度差β始终保持在预设角度范围内(例如±15度内),其中无人机10与穿戴设备20之间的连线AC/DF的指向可以通过无人机10和穿戴设备20的位置信息计算得到;该预设角度范围可以根据实际需求设置,此处不做具体限定。
或者,步骤S321具体包括:
步骤S3212:记录目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线之间的夹角;
具体地,如图6所示,在一个应用例中,无人机10根据后续获得的穿戴设备20的姿态信息,例如欧拉角,可以得到目标物体30的佩戴有穿戴设备20的肢体301(例如手臂)的指向,如图6中的AB连线方向;通过无人机10和穿戴设备20的位置信息可以计算得到无人机10与穿戴设备20之间的连线的指向,即图6中的AC连线方向,从而可以获得手臂301的指向(AB连线方向)相对于无人机10与穿戴设备20之间连线(AC连线方向)之间的夹角β。
步骤S3213:以该夹角作为补偿值根据后续获得的穿戴设备的姿态信息调整无人机与穿戴设备的相对位置关系,以使得调整后的目标物体的佩戴有穿戴设备的肢体的指向和无人机与穿戴设备之间连线彼此重合。
具体地,在上述应用例中,在目标物体30的佩戴有穿戴设备20的肢体301的指向发生移动时,如图5中从AB连线方向移动到DE连线方向,以该夹角β作为补偿值,同步调整无人机10的飞行位置,例如根据后续获得的穿戴设备20的欧拉角,获取穿戴设备20的偏转角度δ,以该偏转角度δ加上补偿值β作为无人机10的飞行角度,在无人机10所处的水平面上,并且在无人机10与目标物体30之间距离不变时,同步调整无人机10的飞行位置,从而可以使得调整后的目标物体30的佩戴有穿戴设备20的肢体301的指向(如图6中的DE连线方向)和无人机10与穿戴设备20之间连线(如图6中的DF连线方向)彼此重合。
进一步地,步骤S31之前,包括:
步骤S300:获取穿戴设备的姿态信息;
步骤S301:判断穿戴设备的姿态信息是否满足预设的方位调整触发条件;
步骤S302:若满足方位调整触发条件,则执行步骤S31。
其中,步骤S301包括:
步骤S3011:根据穿戴设备的姿态信息和无人机与穿戴设备之间的相对位置关系,判断目标物体的佩戴有穿戴设备的肢体的指向相对于无人机与穿戴设备之间连线是否处于预设角度范围内;
步骤S3012:若处于预设角度范围内,则满足方位调整触发条件。
其中,预设角度范围是预先设置的角度最大偏差范围,其具体取值可以根据实际需求设置,此处不做具体限定。
具体地,如图7所示,在一个应用例中,无人机10根据获得的穿戴设备20的姿态信息,例如欧拉角,可以得到目标物体30的佩戴有穿戴设备20的肢体301(例如手臂)的指向,如图7中的AB连线方向,根据无人机10和穿戴设备20的位置信息可以计算得到无人机10与穿戴设备20之间连线的指向,如图7中的AC连线方向,判断手臂301指向(即AB连线方向)和无人机10与穿戴设备20之间连线的指向(即AC连线方向)之间的夹角β是否处于预设角度范围内(例如±20度内),若处于预设角度范围内,则表明手臂301的指向对准无人机10,则满足方位调整触发条件,可以继续执行步骤S31,从而使得无人机10随着手臂301的移动同步调整飞行位置;否则,不触发方位调整,即不执行步骤S31。在方位调整过程中,若该手臂301的指向(即AB连线方向)和无人机10与穿戴设备20之间连线的指向(即AC连线方向)之间的夹角β超出预设角度范围,则判定方位调整结束。
上述实施方式中,通过判断获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,并在相匹配时,对无人机进行方位调整,从而可以调整无人机与目标物体的相对位置,同时也可以同步调整无人机搭载的成像设备的拍摄角度,使得目标物体始终处于拍摄范围内,进而通过便携的穿戴设备即可以实现无人机的飞行控制,而不需要携带笨重的控制器,提高无人机的控制便利性。
本实施方式可以与本发明无人机的飞行控制方法第一和/或第二实施方式相结合,本实施方式步骤的执行可以在步骤S14或者步骤S21之后。
请参阅图8,图8是本发明无人机一实施方式的结构示意图。如图8所示,本发明无人机80包括:
无线通信电路801,用于获取目标物体所佩戴的穿戴设备的位置信息和动作信息;
处理器802,耦接无线通信电路801,用于判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在穿戴设备的动作信息与第一动作模板相匹配时,根据穿戴设备的位置信息对无人机80的飞行位置、无人机80的所搭载的成像设备的拍摄角度和目标物体在无人机80的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机80处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内。
其中,穿戴设备为佩戴于目标物体的手臂上的手环或手表,第一动作模板对应于目标物体的挥手动作。当然,在其他实施方式中,穿戴设备也可以是佩戴于目标物体手指上的戒指等其他类型的设备,第一动作模板也可以对应上下晃动手臂等其他动作,此处不做具体限定。
进一步地,无人机80还包括:
存储器803,耦接处理器802,用于存储处理器802运行所需的指令和数据,例如第一动作模板;
定位仪804,耦接处理器802,用于获取无人机80的位置信息;
其中,处理器802判断判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,以及根据穿戴设备的位置信息对无人机80的飞行位置、无人机80所搭载的成像设备的拍摄角度和目标物体在无人机80的所搭载的成像设备中的成像大小中的至少一者或组合进行调整的具体过程可以参考本发明无人机的飞行控制方法第一实施方式的对应步骤,此处不再重复。
进一步地,处理器802用于:从成像设备的拍摄画面内对目标物体进行视觉识别;并结合后续获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机80对目标物体进行跟踪;其具体过程可以参考本发明无人机的飞行控制方法第二实施方式的对应步骤,此处不再重复。
进一步地,处理器802还用于:判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,并在所获得的动作信息与第二动作模板相匹配时,对无人机80进行方位调整。
其中,第二动作模板对应于目标物体的手腕翻转动作。当然,在其他实施方式中,第二动作模板也可以对应抬手等其他动作,此处不做具体限定。
处理器802判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配之前,进一步用于判断穿戴设备的姿态信息是否满足预设的方位调整触发条件,并在满足方位调整触发条件时,执行判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤。
其中,处理器802判断穿戴设备的姿态信息是否满足预设的方位调整触发条件,判断后续获取的穿戴设备的动作信息或对目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,以及对无人机80进行方位调整的具体过程可以参考本发明无人机的飞行控制方法第三实施方式的对应步骤,此处不再重复。
当然,在其他实施方式中,无人机还可以包括超声波传感器、磁力计等其他部件,此处不做具体限定。
上述实施方式中,无人机通过获取目标物体所佩戴的穿戴设备的位置信息和动作信息,判断穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在匹配时,根据穿戴设备的位置信息对无人机的飞行位置、无人机的所搭载的成像设备的拍摄角度和目标物体在无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得无人机处于穿戴设备的预定距离范围内且目标物体处于成像设备的预定拍摄范围内,从而用户通过便携的穿戴设备即可实现控制无人机飞行,而不需要携带笨重的控制器,提高无人机控制的便利性;另外,通过结合获得的穿戴设备的位置信息和视觉识别获得的目标物体的位置信息控制无人机对目标物体进行跟踪,从而采用穿戴设备的位置信息弥补视觉识别不稳定的问题,提高目标跟踪的准确性。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (32)
1.一种无人机的飞行控制方法,其特征在于,所述方法包括:
获取目标物体所佩戴的穿戴设备的位置信息和动作信息,其中,所述动作信息由所述穿戴设备检测获得;
判断所述穿戴设备的动作信息是否与预设的第一动作模板相匹配;
若与所述第一动作模板相匹配,则根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得所述无人机处于所述穿戴设备的预定距离范围内且所述目标物体处于所述成像设备的预定拍摄范围内。
2.根据权利要求1所述的方法,其特征在于,所述穿戴设备为佩戴于所述目标物体的手臂上的手环或手表,所述第一动作模板对应于所述目标物体的挥手动作。
3.根据权利要求1所述的方法,其特征在于,所述根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整的步骤包括:
根据所述穿戴设备的水平位置信息与所述无人机的水平位置信息调整所述无人机的水平飞行位置,以将所述无人机与所述穿戴设备的水平相对距离调整到第一预定距离范围内;
根据所述穿戴设备的高度信息与所述无人机的高度信息调整所述无人机的飞行高度,以将所述无人机与所述穿戴设备的相对高度调整到第二预定距离范围内;
根据所述无人机和所述穿戴设备的水平相对距离和相对高度计算所述无人机与所述穿戴设备之间连线相对于水平方向或竖直方向的夹角,并根据所述夹角调整所述成像设备的拍摄角度,以使得所述成像设备的光轴方向调整到相对于所述无人机与所述穿戴设备之间连线处于预定角度范围内;
根据所述无人机和所述穿戴设备的水平相对距离和相对高度调整所述成像设备的焦距,使得所述目标物体在所述成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
4.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
从所述成像设备的拍摄画面内对所述目标物体进行视觉识别。
5.根据权利要求4所述的方法,其特征在于,所述从所述成像设备的拍摄画面内对所述目标物体进行视觉识别的步骤包括:
对所述拍摄画面中的至少两个候选物体进行动作识别,以分别获取所述至少两个候选物体的动作信息;
将所述至少两个候选物体的动作信息与所述穿戴设备的动作信息或所述第一动作模板进行匹配;
将相匹配的所述候选物体作为所述目标物体。
6.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪。
7.根据权利要求6所述的方法,其特征在于,所述结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪的步骤包括:
根据所述穿戴设备的位置信息调整所述无人机的飞行位置,并根据视觉识别获得的所述目标物体的位置信息调整所述无人机的拍摄角度。
8.根据权利要求6所述的方法,其特征在于,所述结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪的步骤进一步包括:
判断所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息之间的差异是否大于预设阈值;
若大于所述预设阈值,则重新根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得所述无人机处于所述穿戴设备的预定距离范围内且所述目标物体处于所述成像设备的预定拍摄范围内。
9.根据权利要求8所述的方法,其特征在于,所述重新根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整的步骤之后,进一步包括:
重新对所述目标物体进行视觉识别。
10.根据权利要求4所述的方法,其特征在于,所述方法进一步包括:
判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配;
若与所述第二动作模板相匹配,则对所述无人机进行方位调整。
11.根据权利要求10所述的方法,其特征在于,所述穿戴设备为佩戴于所述目标物体的手臂上的手环或手表,所述第二动作模板对应于所述目标物体的手腕翻转动作。
12.根据权利要求10所述的方法,其特征在于,所述判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤之前,进一步包括:
获取所述穿戴设备的姿态信息;
判断所述穿戴设备的姿态信息是否满足预设的方位调整触发条件;
若满足所述方位调整触发条件,则执行所述判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤。
13.根据权利要求12所述的方法,其特征在于,所述判断所述穿戴设备的姿态信息是否满足预设的方位调整触发条件的步骤包括:
根据所述穿戴设备的姿态信息和所述无人机与所述穿戴设备之间的相对位置关系,判断所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线是否处于预设角度范围内;
若处于所述预设角度范围内,则满足所述方位调整触发条件。
14.根据权利要求13所述的方法,其特征在于,所述对所述无人机进行方位调整的步骤包括:
根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系。
15.根据权利要求14所述的方法,其特征在于,所述根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系的步骤包括:
根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系,以使得所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线始终保持在所述预设角度范围内。
16.根据权利要求14所述的方法,其特征在于,所述根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系的步骤包括:
记录所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线之间的夹角;
以所述夹角作为补偿值根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系,以使得调整后的所述目标物体的佩戴有所述穿戴设备的肢体的指向和所述无人机与所述穿戴设备之间连线彼此重合。
17.一种无人机,其特征在于,包括:
无线通信电路,用于获取目标物体所佩戴的穿戴设备的位置信息和动作信息,其中,所述动作信息由所述穿戴设备检测获得;
处理器,耦接所述无线通信电路,用于判断所述穿戴设备的动作信息是否与预设的第一动作模板相匹配,并在所述穿戴设备的动作信息与所述第一动作模板相匹配时,根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整,以使得所述无人机处于所述穿戴设备的预定距离范围内且所述目标物体处于所述成像设备的预定拍摄范围内。
18.根据权利要求17所述的无人机,其特征在于,所述穿戴设备为佩戴于所述目标物体的手臂上的手环或手表,所述第一动作模板对应于所述目标物体的挥手动作。
19.根据权利要求17所述的无人机,其特征在于,所述处理器根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整具体包括:
根据所述穿戴设备的水平位置信息与所述无人机的水平位置信息调整所述无人机的水平飞行位置,以将所述无人机与所述穿戴设备的水平相对距离调整到第一预定距离范围内;
根据所述穿戴设备的高度信息与所述无人机的高度信息调整所述无人机的飞行高度,以将所述无人机与所述穿戴设备的相对高度调整到第二预定距离范围内;
根据所述无人机和所述穿戴设备的水平相对距离和相对高度计算所述无人机与所述穿戴设备之间连线相对于水平方向或竖直方向的夹角,并根据所述夹角调整所述成像设备的拍摄角度,以使得所述成像设备的光轴方向调整到相对于所述无人机与所述穿戴设备之间连线处于预定角度范围内;
根据所述无人机和所述穿戴设备的水平相对距离和相对高度调整所述成像设备的焦距,使得所述目标物体在所述成像设备中的成像大小占整个拍摄画面的比例处于预定比例范围内。
20.根据权利要求17所述的无人机,其特征在于,所述处理器进一步用于:
从所述成像设备的拍摄画面内对所述目标物体进行视觉识别。
21.根据权利要求20所述的无人机,其特征在于,所述处理器从所述成像设备的拍摄画面内对所述目标物体进行视觉识别具体包括:
对所述拍摄画面中的至少两个候选物体进行动作识别,以分别获取所述至少两个候选物体的动作信息;
将所述至少两个候选物体的动作信息与所述穿戴设备的动作信息或所述第一动作模板进行匹配;
将相匹配的所述候选物体作为所述目标物体。
22.根据权利要求17所述的无人机,其特征在于,所述处理器进一步用于:
结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪。
23.根据权利要求22所述的无人机,其特征在于,所述处理器结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪具体包括:
根据所述穿戴设备的位置信息调整所述无人机的飞行位置,并根据视觉识别获得的所述目标物体的位置信息调整所述无人机的拍摄角度。
24.根据权利要求22所述的无人机,其特征在于,所述处理器结合后续获得的所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息控制所述无人机对所述目标物体进行跟踪的步骤进一步包括:
判断所述穿戴设备的位置信息和视觉识别获得的所述目标物体的位置信息之间的差异是否大于预设阈值;
若大于所述预设阈值,则重新根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整。
25.根据权利要求24所述的无人机,其特征在于,所述处理器重新根据所述穿戴设备的所述位置信息对所述无人机的飞行位置、所述无人机的所搭载的成像设备的拍摄角度和所述目标物体在所述无人机的所搭载的成像设备中的成像大小中的至少一者或组合进行调整之后,进一步用于:
重新对所述目标物体进行视觉识别。
26.根据权利要求20所述的无人机,其特征在于,所述处理器进一步用于:
判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配,并在所获得的所述动作信息与所述第二动作模板相匹配时,对所述无人机进行方位调整。
27.根据权利要求26所述的无人机,其特征在于,所述穿戴设备为佩戴于所述目标物体的手臂上的手环或手表,所述第二动作模板对应于所述目标物体的手腕翻转动作。
28.根据权利要求26所述的无人机,其特征在于,所述处理器判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配之前,
所述无线通信电路进一步用于获取所述穿戴设备的姿态信息;
所述处理器进一步用于判断所述穿戴设备的姿态信息是否满足预设的方位调整触发条件,并在满足所述方位调整触发条件时,执行所述判断后续获取的所述穿戴设备的动作信息或对所述目标物体进行动作识别所获得的动作信息是否与预设的第二动作模板相匹配的步骤。
29.根据权利要求28所述的无人机,其特征在于,所述处理器判断所述穿戴设备的姿态信息是否满足预设的方位调整触发条件具体包括:
根据所述穿戴设备的姿态信息和所述无人机与所述穿戴设备之间的相对位置关系,判断所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线是否处于预设角度范围内,并在处于所述预设角度范围内时,判定所述穿戴设备的姿态信息满足所述方位调整触发条件。
30.根据权利要求29所述的无人机,其特征在于,所述处理器对所述无人机进行方位调整具体包括:
根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系。
31.根据权利要求30所述的无人机,其特征在于,所述处理器根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系具体包括:
根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系,以使得所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线始终保持在所述预设角度范围内。
32.根据权利要求30所述的无人机,其特征在于,所述处理器根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系具体包括:
记录所述目标物体的佩戴有所述穿戴设备的肢体的指向相对于所述无人机与所述穿戴设备之间连线之间的夹角;
以所述夹角作为补偿值根据后续获得的所述穿戴设备的姿态信息调整所述无人机与所述穿戴设备的相对位置关系,以使得调整后的所述目标物体的佩戴有所述穿戴设备的肢体的指向和所述无人机与所述穿戴设备之间连线彼此重合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210149842.8A CN114510079A (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/079134 WO2018176426A1 (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210149842.8A Division CN114510079A (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109690440A CN109690440A (zh) | 2019-04-26 |
CN109690440B true CN109690440B (zh) | 2022-03-08 |
Family
ID=63673997
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210149842.8A Pending CN114510079A (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
CN201780054731.6A Active CN109690440B (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210149842.8A Pending CN114510079A (zh) | 2017-03-31 | 2017-03-31 | 一种无人机的飞行控制方法及无人机 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN114510079A (zh) |
WO (1) | WO2018176426A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989982B (zh) * | 2021-03-05 | 2024-04-30 | 佛山科学技术学院 | 一种无人车图像采集控制方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105759839A (zh) * | 2016-03-01 | 2016-07-13 | 深圳市大疆创新科技有限公司 | 无人机视觉跟踪方法、装置以及无人机 |
CN105843246A (zh) * | 2015-11-27 | 2016-08-10 | 深圳市星图智控科技有限公司 | 无人机跟踪方法、系统及无人机 |
CN105955306A (zh) * | 2016-07-20 | 2016-09-21 | 西安中科比奇创新科技有限责任公司 | 可穿戴设备、基于可穿戴设备的无人机控制方法及系统 |
CN106020492A (zh) * | 2016-06-07 | 2016-10-12 | 赵武刚 | 通过手的动作与手势产生遥控无人机及附件的信号的方法 |
CN106370184A (zh) * | 2016-08-29 | 2017-02-01 | 北京奇虎科技有限公司 | 无人机自动跟踪拍摄的方法、无人机和移动终端设备 |
CN106458318A (zh) * | 2014-05-23 | 2017-02-22 | 莉莉机器人公司 | 用于照相和/或摄像的无人航拍直升机 |
CN106446837A (zh) * | 2016-09-28 | 2017-02-22 | 湖南优象科技有限公司 | 一种基于运动历史图像的挥手检测方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120194551A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user-action based command and control of external devices |
CN107577247B (zh) * | 2014-07-30 | 2021-06-25 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
CN105676860A (zh) * | 2016-03-17 | 2016-06-15 | 歌尔声学股份有限公司 | 一种可穿戴设备、无人机控制装置和控制实现方法 |
JP6020872B1 (ja) * | 2016-06-24 | 2016-11-02 | 株式会社アドインテ | 分析システム及び分析方法 |
CN106161953A (zh) * | 2016-08-12 | 2016-11-23 | 零度智控(北京)智能科技有限公司 | 一种跟踪拍摄方法和装置 |
CN106155090B (zh) * | 2016-08-29 | 2019-04-19 | 电子科技大学 | 基于体感的可穿戴无人机控制设备 |
CN106444843B (zh) * | 2016-12-07 | 2019-02-15 | 北京奇虎科技有限公司 | 无人机相对方位控制方法及装置 |
-
2017
- 2017-03-31 CN CN202210149842.8A patent/CN114510079A/zh active Pending
- 2017-03-31 WO PCT/CN2017/079134 patent/WO2018176426A1/zh active Application Filing
- 2017-03-31 CN CN201780054731.6A patent/CN109690440B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106458318A (zh) * | 2014-05-23 | 2017-02-22 | 莉莉机器人公司 | 用于照相和/或摄像的无人航拍直升机 |
CN105843246A (zh) * | 2015-11-27 | 2016-08-10 | 深圳市星图智控科技有限公司 | 无人机跟踪方法、系统及无人机 |
CN105759839A (zh) * | 2016-03-01 | 2016-07-13 | 深圳市大疆创新科技有限公司 | 无人机视觉跟踪方法、装置以及无人机 |
CN106020492A (zh) * | 2016-06-07 | 2016-10-12 | 赵武刚 | 通过手的动作与手势产生遥控无人机及附件的信号的方法 |
CN105955306A (zh) * | 2016-07-20 | 2016-09-21 | 西安中科比奇创新科技有限责任公司 | 可穿戴设备、基于可穿戴设备的无人机控制方法及系统 |
CN106370184A (zh) * | 2016-08-29 | 2017-02-01 | 北京奇虎科技有限公司 | 无人机自动跟踪拍摄的方法、无人机和移动终端设备 |
CN106446837A (zh) * | 2016-09-28 | 2017-02-22 | 湖南优象科技有限公司 | 一种基于运动历史图像的挥手检测方法 |
Non-Patent Citations (1)
Title |
---|
智能传感器技术的研究进展及应用展望;尤政;《科技导报》;20160913(第17期);74-80 * |
Also Published As
Publication number | Publication date |
---|---|
CN109690440A (zh) | 2019-04-26 |
WO2018176426A1 (zh) | 2018-10-04 |
CN114510079A (zh) | 2022-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11125563B2 (en) | Systems and methods for autonomous machine tracking and localization of mobile objects | |
US20240118701A1 (en) | Systems and methods for controlling an unmanned aerial vehicle | |
EP2972462B1 (en) | Digital tethering for tracking with autonomous aerial robot | |
US11454964B2 (en) | Systems and methods for adjusting flight control of an unmanned aerial vehicle | |
US10322819B2 (en) | Autonomous system for taking moving images from a drone, with target tracking and improved target location | |
CN102355574B (zh) | 机载云台运动目标自主跟踪系统的图像稳定方法 | |
CN103587708B (zh) | 超小型无人旋翼飞行器野外定点零盲区自主软着陆方法 | |
WO2017197729A1 (zh) | 一种跟踪系统及跟踪方法 | |
US10976163B2 (en) | Robust vision-inertial pedestrian tracking with heading auto-alignment | |
US20150247729A1 (en) | System and method for device bearing estimation | |
JP7200946B2 (ja) | 情報処理装置、制御システム、情報処理方法及びプログラム | |
US20080118104A1 (en) | High fidelity target identification and acquisition through image stabilization and image size regulation | |
KR20180075191A (ko) | 무인 이동체를 제어하기 위한 방법 및 전자 장치 | |
WO2021127888A1 (zh) | 控制方法、智能眼镜、可移动平台、云台、控制系统及计算机可读存储介质 | |
CN108957505A (zh) | 一种定位方法、定位系统和手携式智能穿戴设备 | |
CN107918397A (zh) | 带目标跟踪和拍摄角保持的无人机移动图像自主拍摄系统 | |
US20210070285A1 (en) | Vehicle anti-collision forewarning method, system and in-vehicle computer device | |
CN109690440B (zh) | 一种无人机的飞行控制方法及无人机 | |
CN100432696C (zh) | 基于仿生人眼控制的地面运动目标低空自动跟踪系统 | |
KR101672710B1 (ko) | 증강현실을 이용한 실내 위치 모니터링 시스템 | |
US11972039B1 (en) | Augmented reality skydiving system | |
Jiang et al. | Design of a Pedestrian Navigation System based on the Fusion INS with GPS | |
Zhang et al. | Sensor-Fusion-Based Trajectory Reconstruction for Quadrotor Drones | |
CN111610803A (zh) | 一种基于多传感器的目标追踪装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |