CN111913493A - 无人机降落装置及方法 - Google Patents
无人机降落装置及方法 Download PDFInfo
- Publication number
- CN111913493A CN111913493A CN201910694832.0A CN201910694832A CN111913493A CN 111913493 A CN111913493 A CN 111913493A CN 201910694832 A CN201910694832 A CN 201910694832A CN 111913493 A CN111913493 A CN 111913493A
- Authority
- CN
- China
- Prior art keywords
- hand
- drone
- gesture
- distance
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 230000004044 response Effects 0.000 claims abstract description 35
- 230000015654 memory Effects 0.000 claims abstract description 20
- 238000012544 monitoring process Methods 0.000 claims abstract description 19
- 230000007547 defect Effects 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 17
- 230000008859 change Effects 0.000 claims description 8
- 210000003811 finger Anatomy 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010047571 Visual impairment Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- -1 dirt Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/10—Launching, take-off or landing arrangements for releasing or capturing UAVs by hand
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/04—Systems determining the presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/042—Control of altitude or depth specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/04—Control of altitude or depth
- G05D1/06—Rate of change of altitude or depth
- G05D1/0607—Rate of change of altitude or depth specially adapted for aircraft
- G05D1/0653—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
- G05D1/0676—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing
- G05D1/0684—Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for landing on a moving platform, e.g. aircraft carrier
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/30—Launching, take-off or landing arrangements for capturing UAVs in flight by ground or sea-based arresting gear, e.g. by a cable or a net
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
Abstract
本发明揭示一种无人机(UAV,unmanned aerial vehicle),其包括一个或多个处理器以及储存指令的存储器。当由该一个或多个处理器执行时,该指令导致该UAV执行操作,包括:辨识手的第一手势;回应该第一手势的辨识,移动该无人机至悬浮于该手上方;侦测该无人机与该手之间的距离;回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及回应该第二手势的辨识,将该无人机降落至该手上。
Description
技术领域
本发明关于无人机(UAV,unmanned aerial vehicle),尤其关于无人机降落的设备及方法。
背景技术
使用者一般通过使用遥控器控制无人机(UAV),来达成UAV的起飞与降落。传统降落操作为手动程序,并且使用者需要参与整个降落程序,使用遥控器控制UAV。降落操作严重依赖于使用者的操作能力,并且需要大量的学习和培训,以达成无人机安全且成功的降落。
此外,地面情况并不总是适合降落,例如,可能存在可能伤害地面上无人机的土壤、泥土、岩石或水,地面可能不平整或不安全以进行降落。这些情况导致UAV降落困难。因此,需要简化和改进无人机的降落操作,以克服上述缺点并提供更好的使用者体验。
发明内容
本公开提供一种非暂态计算机可读取介质,其储存可由无人机的处理器执行的一组指令,以使该无人机执行用于降落该无人机的方法。该方法用于降落无人机,包括辨识手的第一手势;回应该第一手势的辨识,移动该无人机至悬浮于该手上方;侦测该无人机与该手之间的距离;回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及回应该第二手势的辨识,将该无人机降落至该手上。
本发明也提供一种用于降落该无人机的方法。该方法用于降落无人机,包括辨识手的第一手势;回应该第一手势的辨识,移动该无人机至悬浮于该手上方;侦测该无人机与该手之间的距离;回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及回应该第二手势的辨识,将该无人机降落至该手上。
本发明进一步提供一种无人机(UAV),其包括一个或多个处理器以及储存指令的存储器。当由该一个或多个处理器执行时,该指令导致该无人机执行操作,包括:辨识手的第一手势;回应该第一手势的辨识,移动该无人机至悬浮于该手上方;侦测该无人机与该手之间的距离;回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及回应该第二手势的辨识,将该无人机降落至该手上。
应说明的是,上述一般说明以及下述详细说明都仅是示例性的,并不因此限制本发明。
附图说明
附图为并入并且构成本说明书的一部份,其说明许多具体实施例并且在搭配内容说明之后可用来解释本发明原理。图式中:
图1A为示出示例性无人机(UAV)的图式,其与本发明的一些具体实施例一致。
图1B为示出示例性UAV和示例性控制系统的图式,其与本发明的一些具体实施例一致。
图2为示出示例性整合式单元的图式,其与本发明的一些具体实施例一致。
图3为示出用于降落UAV的示例性方法的流程图,其与本发明的一些具体实施例一致。
图4A和图4B为示出由影像传感器所撷取的示例性影像的图式,其与本发明的一些具体实施例一致。
图5A和图5B为示出由该影像传感器所撷取的示例性影像的图式,其与本发明的一些具体实施例一致。
图6为以更详细方式示出图3内该示例性方法的一个步骤的流程图,其与本发明的一些具体实施例一致。
图7为示出由该影像传感器所撷取的影像的图式,其与本发明的一些具体实施例一致。
图8为示出距离传感器的示例性操作的图式,其与本发明的一些具体实施例一致。
【附图标记列表】
100 无人机
110a-110d 马达
120a-120d 螺旋桨
130 整合式单元
132 飞行控制计算机
1321 处理器
1322 存储器
134 姿态与航向参考系统
136 通信电路
138 天线
140 影像传感器
150 距离传感器
200 控制系统
210 通信信号
300 方法
400a-400b 影像
410 手区域
412、420 中心点
430 中央区域
500a-500b 影像
510 手轮廓
520 凸包
525 顶点
532-538 凸包缺陷
710、720 最小圆
810 矩阵
820 手区域
具体实施方式
以下说明参照附图,其中除非另有说明,否则不同附图中的相同数字表示相同或相似的元件。在示例性具体实施例的以下描述中所阐述的实施方式不代表构成本发明的所有实施方式。相反,它们仅仅是与所附权利要求中所述与本发明相关实施例一致的设备及方法的示例。
图1A为示出示例性无人机(UAV)100的图式,其与本发明的一些具体实施例一致。UAV 100包括一个或多个马达110a-110d、一个或多个螺旋桨120a-120d、整合式单元130、影像传感器140以及距离传感器150。在一些具体实施例内,UAV 100也可包括副翼,用于产生滚动运动,让UAV 100能够俯仰、翻转或偏摆。马达110a-110d分别连接至螺旋桨120a-120d,并且设置成提供推力给UAV 100。在许多具体实施例内,马达110a-110d以及螺旋桨120a-120d的数量可不同,并且图1A内示出的UAV 100仅为示例,并不用于限制本发明。例如:UAV100可具有一、二、三、四、五、六、七、八或任何数量的马达,分别与螺旋桨连接。
整合式单元130通信连接至马达110a-110d,并设置成控制马达110a-110d,在诸如爬升、下降、近似悬浮或过渡这许多飞行操作中提供上升力与推进力。例如,整合式单元130可设置为分别将驱动信号传输到驱动马达110a-110d,以控制马达110a-110d的转速。
影像传感器140通信连接至整合式单元130,并设置成撷取一个或多个影像。更具体地,影像传感器140设置成将光信号转换为包含已撷取影像信息的电信号,并将转换后的电信号发送到整合式单元130,以进行影像处理和辨识。在一些具体实施例内,影像传感器140可包括CMOS影像传感器,诸如可见光CMOS影像传感器,但是本发明并不受限于此。
距离传感器150通信连接至整合式单元130,并设置成侦测UAV 100与在UAV 100附近的障碍物或物体间的距离。距离传感器150可用激光接近传感器来实现,其可通过发出激光光束并且侦测从障碍物或物体反射的相应激光光束,来侦测物体或障碍物。距离传感器150所发出激光光束的波长可根据特定设计来选择,例如:距离传感器150可发出可见激光光束,但是本发明并不受限于此。
图1B为示出UAV 100和示例性控制系统200的图式,其与本发明的一些具体实施例一致。使用者可通过控制系统200控制UAV 100执行飞行操作,并设定UAV 100的一个或多个操作参数,例如:控制系统200可包括地面控制站(GCS,ground control station)或遥控器。在一些具体实施例内,GCS可在台式电脑、笔记本电脑、平板电脑、智能手机或任何其他电子装置上执行。使用者可输入一个或多个指令给控制系统200。控制系统200在收到指令之后,可通过通信电路发出通信信号210至UAV 100。
如图1B内所示,在一些具体实施例内,影像传感器140配置在UAV 100的底侧上(例如当UAV 100悬浮时面朝地面的那一侧)。结果,影像传感器140也可撷取影像,并获得有关UAV 100底下一个或多个物体的信息,例如物体的大小、形状或颜色。类似于影像传感器140,在一些具体实施例内,距离传感器150也配置在UAV 100的底侧上。结果,距离传感器150也可侦测UAV 100与UAV 100底下物体之间的距离,或UAV 100与地面之间的距离。
当UAV 100接收来自控制系统200的手降落指令时,则触发UAV 100的手降落模式。在手降落模式期间,如果辨识出使用者手UH1,则UAV 100可降落在使用者手UH1上,由影像传感器140撷取的影像以及距离传感器150侦测到的距离来促进操作。下面将详细讨论该手降落模式中的操作细节。
图2为示出示例性整合式单元130的图式,其与本发明的一些具体实施例一致。如图2内所示,在一些具体实施例内,整合式单元130包括飞行控制计算机(FCC,flightcontrol computer)132、姿态与航向参考系统(AHRS,attitude and heading referencesystem)134、通信电路136和天线138,这全都用来控制UAV 100。
FCC 132包括处理器1321和储存指令并设置来控制UAV 100的存储器1322,例如:FCC 132可设置成控制马达110a-110d来让UAV 100加快或减慢。在一些具体实施例内,FCC132可提高或降低一个或多个马达110a-110d的转速,例如:在飞行期间,整合式单元130可单独控制每一马达110a-110d的每分钟回转数(RPM,revolutions per minute)。
更具体地,存储器1322可储存数据和/或处理器1321所执行的软件指令,来执行与本具体实施例一致的操作。例如:处理器1321可设置成执行储存在存储器1322中的一组指令,以执行当接收来自使用者的降落指令时,自动将UAV 100降落在人手上,诸如使用者的手的一种方法,下面将有详细讨论。
处理器1321可例如为一个或多个中央处理器或微处理器。存储器1322可为在任何方法或技术内实施,用于储存诸如计算机可读取指令、数据结构、程序模块或其他数据等等信息的许多种计算机可读取介质。存储器1322可通过总线与处理器1321通信连接。在一些具体实施例中,存储器1322可包括主存储器,其可用于在处理器1321执行指令期间储存临时变数或其他中间信息。在储存于整合式单元130可存取的非暂态储存介质内之后,这些指令可让UAV 100执行该等指令内指定的操作。
本说明书内使用的术语“非暂态介质”代表任何非暂态介质,其中储存导致机器以特殊方式运作的数据或指令。这种非暂态介质可包括非易失性介质和/或易失性介质。非暂态介质包括例如光盘或磁盘、动态存储器、软盘、软盘、硬盘、固态硬盘、磁性卡匣、磁带或任何其他磁性数据储存介质、CD-ROM、数字多功能光盘(DVD)或任何其他光学数据储存介质、随机存取存储器(RAM)、只读存储器(ROM)、可编程只读存储器(PROM)、EPROM、FLASH-EPROM、NVRAM、快闪存储器或其他存储器技术和/或具有与本领域技术人员可想到相同功能的任何其他储存介质。本领域技术人员已知的其他组件可包括在UAV 100中,用来处理、传输、提供和接收与本发明具体实施例一致的信息。
AHRS 134包括位于三轴上的一个或多个传感器,提供UAV 100的姿态信息,诸如滚角、俯仰角和/或偏摆角。AHRS 134的传感器也可称为磁性、角速率和重力(MARG,magnetic,angular rate,and gravity)传感器,并且包括固态或微机电系统(MEMS,microelectromechanical systems)陀螺仪、加速度计和磁力计。AHRS 134可包括机上处理系统,其提供姿态与航向信息。在一些具体实施例内,AHRS 134可提供UAV 100的姿态判定,并且也可形成UAV 100的惯性导航系统一部分。
UAV 100可通过通信电路136和天线138,将数据传输至其他电子装置并与之通信,例如:UAV 100可借由通信电路136和天线138,接收来自例如图1B中控制系统200这类控制系统的通信信号。此外,UAV 100还可借由通信电路136和天线138,经由射频(RF,radiofrequency)信号或任何无线网络类型,来与显示装置、服务器、计算机系统、数据中心或其他UAV通信。
图3为示出用于降落UAV 100的一示例性方法300的流程图,其与本发明的一些具体实施例一致。方法300可由UAV(例如图1A和图1B内的UAV 100)来执行,但是本发明并不受限于此。在一些具体实施例内,处理器1321可设置成执行存储器1322内储存的指令,来使UAV 100执行方法300内降落UAV 100的步骤。
在步骤S310内,UAV 100决定是否针对UAV 100触发手降落模式。使用者可将来自控制系统200的对应信号当成手降落指令,传送给UAV 100。当处理器1321通过通信电路136接收手降落指令时,处理器1321选择触发手降落模式。在回应选取手降落模式上,UAV 100悬浮在使用者附近位置上一预定高度之上,例如:UAV 100可维持在大约1米与2米之间范围内任何值的悬浮高度上。
在步骤S320内,UAV 100辨识手的第一手势。在步骤S330内,回应该第一手势的辨识,UAV 100移动至悬浮于该手之上,例如:当UAV 100悬浮时,使用者可伸出手,手心向上位于UAV 100底下。影像传感器140可传送影像信息至处理器1321,来执行影像处理与辨识,以辨识该手以及该手的手势(步骤S320)。在一些具体实施例内,由UAV 100辨识的该第一手势可包括手指并拢的手。在此上下文中,“手指并拢”代表其中手指彼此相邻无间隙的手势,底下将结合图5A进一步讨论。如此,当UAV 100辨识手的手指并拢时,FCC 132可控制马达110a-110d调整UAV 100的位置,来悬浮在该手之上(步骤S330)。
图4A和图4B为示出分别由影像传感器140所撷取的示例性影像400a和400b的图式,其与本发明的一些具体实施例一致。如图4A内所示,利用执行手部侦测与追踪算法,UAV100可识别影像400a内含中心点412的手区域410,例如:可根据影像400a内颜色信息来识别手区域410。另外可选择具有皮肤色调的一个或多个候选区域。然后,进一步分析该一个或多个候选区域的形状和大小,来进一步决定手区域410是否对应至存在的人手。在一些具体实施例内,手区域410为矩形区域,如图4A和图4B内所示。UAV 100计算影像400a的中心点412与中心点420间的距离D1,来决定该手是否落在影像400a的中央区域430之内。
在一些具体实施例内,中央区域430可定义成一组像素,其中该像素与中心点420间的距离位于一临界距离TD1之内,但是本发明并不受限于此。如果中心点412与中心点420间的距离D1大于临界距离TD1,则UAV 100控制马达110a-110d,往确定使UAV 100朝向中心420移动的方向,调整UAV 100的位置,直到距离D1小于或等于临界距离TD1。例如:如图4A内所示,影像400a内的距离D1大于临界距离TD1。结果,UAV 100控制马达110a-110d来调整UAV100的位置,直到距离D1小于或等于临界距离TD1,如由图4B中影像传感器140所捕获的影像400b内所示。中央区域430也可定义为影像400a和400b内区域,对应至实体世界中UAV 100底下的空间。根据UAV 100的大小以及影像传感器140的不同配置,可根据不同具体实施例内的实际需求来设定该中央区域。
另外,UAV 100也可预定义影像400a和400b的中央区域430的范围,并确定手区域410的中心点412是否落在该范围内。类似地,UAV 100可调整其位置,如此在中央区域430之内追踪中心点412。换句话说,UAV 100可监控由影像传感器140获得的影像400a内的该手,根据手的一个或多个特征识别手心,并且移动UAV 100直到手区域410的中心点412位于影像400b的中央区域430内。如此,UAV 100可移动悬浮至该手之上。
返回参阅图3,在追踪该手到该影像的中央区域内并且UAV 100移动悬浮至该手上之后,在步骤S340内,UAV 100侦测UAV 100与该手之间的距离。在一些具体实施例内,可使用飞行时间原理,套用距离传感器150来测量该距离。也就是,距离传感器150可记录光脉冲往返目标物体所耗费的时间。利用已知光速和所花费时间的测量值,可计算距离传感器150和目标物体间之距离。距离传感器150可依序发射多个光脉冲,以便获得平均距离值。更具体地,距离传感器150可设置成沿着一方向,朝手发射一个或多个激光光束,并且接收一个或多个激光光束的一个或多个反射。如此,UAV 100可根据发射该一个或多个激光光束与接收该一个或多个反射间之时间差,来计算该距离。
在步骤S350内,UAV 100决定所侦测的距离是否落在一预定范围内(例如大约10公分-20公分)。回应所侦测距离落在该范围内的决定(步骤S350-是),UAV 100执行步骤S370。在另一方面,回应该侦测距离超出或低于该范围的决定(步骤S350-否),UAV 100执行步骤S360,并且控制马达110a-110d调整飞行高度,然后重复步骤S340和S350。如此,UAV 100以落在该范围内的距离(例如大约15公分),悬浮在该手之上,并且继续执行步骤S370。
在步骤S370内,UAV 100提供通知信号,来指示UAV 100等待来自使用者的命令。该通知信号可包括视频信号、音频信号或其任意组合,例如:UAV 100可使用一个或多个发光二极管(LED)或其他照明装置,发出特定颜色的光、闪光或一系列光图案当成该通知信号。UAV 100也可使用蜂鸣器,警报器或任何其他音频输出装置来提供预定音调(例如,嘟嘟声或嗡嗡声)、一系列音调或音乐,或录制的语音信息作为通知信号,但是本发明并不受限于此。
在看见或听见UAV 100发出的通知信号之后,使用者可将手势从第一手势改变成与该第一手势不同的第二手势,例如:使用者可改变手的位置成至少两指分开,以便触发降落操作。如此,该第二手势可包括手指张开的手。在此上下文中,“手指张开”代表其中至少两指分开有间隙的手势,底下将结合图5B进一步讨论。
在步骤S380内,UAV 100监控该手并辨识该手的第二手势。回应该第二手势的辨识,UAV 100执行步骤S390并降落在该手上。更具体地,类似于步骤S320中的操作,UAV 100使用影像传感器140将影像信息发送到处理器1321,以执行影像处理和识别,来监控该手并识别手的手势。如此,当识别从该第一手势到该第二手势的转变时,UAV 100继续允许操作执行降落。
为了进一步理解步骤S320和S380中的手势识别,参考图5A和图5B,该等图分别示出由影像传感器140捕获的示例性影像500a和500b,与本发明的一些具体实施例一致。在影像传感器140捕获影像500a和500b之后,处理器1321可套用许多影像处理技术至影像500a和500b,例如:处理器1321可执行皮肤侦测处理,来捕获该手的皮肤区域。处理器1321也可执行噪声消除处理,来降低或移除影像500a和500b内的噪声。如此,处理器1321可侦测手轮廓510。在一些具体实施例内,处理器1321可进一步执行近似处理,以利用影像500a和500b中的一个或多个多边形来近似手轮廓510,其中在近似过程中去除或过滤非所需的凸包。
在获得手轮廓510之后,处理器1321可套用凸包算法以及凸包缺陷算法,来辨识该手以及该手的手势。更具体地,利用套用许多凸包算法,处理器1321可找出近似多边形的凸包520。本文所使用的术语“凸包”是指凹多边形的凸包覆多边形(例如,与手轮廓510相关的近似多边形),其包括凹多边形的顶点525。在定义凸包520之后,处理器1321可决定是否存在一个或多个凸包缺陷。
如图5A内所示,当使用者的四个手指(即除了拇指之外的所有手指)彼此相邻且没有间隙时,在凸包520内存在一个凸包缺陷532(例如,拇指和食指之间的空隙或空间)。另一方面,如图5B所示,当使用者以手指张开时释放手部以触发降落操作时,存在两个或更多个凸包缺陷532、534、536和538。在图5A和图5B中,为了清楚和解释的目的,凸包缺陷532、534、536和538与手轮廓510间隔开。凸包缺陷532、534、536、538可为由手轮廓510的近似多边形顶点定义的三角形区域。例如:起点(例如,起点SP1),深度点(例如,深度点DP1)和终点(例如,终点EP1)界定出凸包缺陷(例如,凸包缺陷532)。起点SP1表示缺陷开始的近似多边形的点,终点EP1表示缺陷结束的近似多边形的点,深度点DP1是与凸包520间隔的近似多边形的点。对于手指张开的手,凸包缺陷的起点和终点可为指尖,并且凸包缺陷的深度点可位于指谷处。
因此,UAV 100可撷取手轮廓510,以获得与影像500a和500b中手轮廓510相关联的凸包缺陷532、534、536和538。凸包缺陷532、534、536和538可用来指示手指间的空隙。当发生相对手指位置或手指移动的变化时,可相应侦测缺陷532、534、536和538的变化。回应凸包缺陷数量改变的侦测,UAV 100决定辨识出第二手势,并且继续执行步骤S390以降落。也就是说,使用者可通过张开闭合的手指,来提供命令并触发UAV 100执行降落,这是直观的。
请参阅图6,其以更详细方式示出图3内示例性方法300的步骤S390的流程图,其与本发明的一些具体实施例一致。在步骤S391内,当已辨识该第二手势,UAV 100降低UAV 100的飞行高度。更具体地,FCC 132可提供相应的控制信号,以逐渐降低马达110a-110d的转速。在步骤S392内,UAV 100在降低飞行高度时与该手对准。更具体地,影像传感器140跟踪影像中的手,并根据手的一个或多个特征识别手心或掌心。因此,FCC 132可提供相应控制信号来控制马达110a-110d,移动UAV 100来跟踪该手心或该掌心位于该影像中央区域内。在一些具体实施例内,用于识别手心的特征包括由两个相邻指尖界定的至少一个三角形区域和两个相邻指状物间的间隙。
为了进一步理解步骤S392,请参考图7,其为示出由影像传感器140捕获的影像500b的图式,与本发明的一些具体实施例一致。如图7内所示,处理器1321可找到可覆盖凸包520的最小圆710,并且通过最小圆710的中心推定手心HC。在一些具体实施例内,处理器1321可另外找到可覆盖凸包520的矩形方块,并相应推定手心HC。类似地,处理器1321可找到可覆盖该深度点的最小圆720,并且通过最小圆720的中心推定掌心PC。在一些具体实施例内,处理器1321也可记录最小圆710、720的半径R1、R2供稍后使用。
通过应用上述影像处理技术,处理器1321可侦测影像500b中的手轮廓510、撷取手轮廓510以获得凸包520和包括至少一个三角形区域的一个或多个凸包缺陷532、534、536、538,以及在影像500b中推定手心HC或掌心PC。上面讨论的具体实施例仅为示例,并不用来限制本发明。在许多具体实施例中,可应用其他影像处理技术来撷取影像500b中手轮廓510的一个或多个手部特征,并相应推定手心HC或掌心PC。该等手部特征可包括手轮廓510的凸包520和/或凸包缺陷532、534、536、538。
因此,在降低飞行高度期间,FCC 132可控制马达110a-110d以调整UAV 100的位置,并且移动UAV 100跟踪图7中影像500b中心区域中的手心HC或掌心PC。因此,UAV 100可在FCC 132的控制之下降低飞行高度期间,与该手对准。
请回头参阅图6,在步骤S393内,UAV 100侦测降低飞行高度期间UAV 100与该手间的距离。为了进一步理解步骤S393内的该距离侦测,请参考图8,其为示出距离传感器150的示例性操作的图式,与本发明的一些具体实施例一致。在一些具体实施例内,镜面阵列辐射校正(SPARC)方法可用于距离传感器150中进行校正。如图8内所示,距离传感器150可依序或同时产生激光束矩阵,以侦测矩阵810中多个侦测点P(1,1)-P(m,n)。如果侦测点之一(例如,侦测点P(3,4))落在手区域820之内,则从距离传感器150发出的相应激光光束沿着一方向朝向使用者的手前进,并反射回到距离传感器150中的侦测器。
因此,可使用如上所述的飞行时间原理来测量UAV 100与手之间的距离。另外,如果侦测点中的另一个(例如,检测点P(1,1))不落在手区域820内,则从距离传感器150发出的相应激光光束直到到达其他障碍物才会反射。因此,距离传感器150可扫描侦测区域,并根据激光光束的飞行时间决定哪个(哪些)侦测点落在手区域820内。
在一些具体实施例内,可过计算矩阵810中手区域820内的侦测点与侦测点总数的比率来确定容许值,以确定UAV 100是否位于使用者的手上方。若容许值大于临界值(例如,大约50%),则确定UAV 100位于使用者的手上方。
请回头参阅图6,在步骤S394内,UAV 100决定该侦测距离是否低于临界值(例如大约3公分)。回应侦测到的距离低于临界值的决定(步骤S394-是),UAV 100执行步骤S395并关闭马达110a-110d。否则(步骤S394-否),重复步骤S391-S394。因此,UAV 100在控制之下下降,直到马达110a-110d关闭来回应UAV 100和手之间的距离低于临界值。当马达110a-110d关闭时,连接到马达110a-110d的螺旋桨120a-120d停止旋转,并且UAV 100由于重力而下降并落在使用者的手上。如此,UAV 100达成手部降落。在一些具体实施例内,关闭所有马达110a-110d以使螺旋桨120a-120d停止旋转。在一些具体实施例内,关闭马达110a-110d中的一个或多个,并且提供给UAV 100的推力不足以维持悬浮高度,使得UAV 100也由于重力而下降并落在使用者手上。
鉴于以上,在本发明的各种具体实施例中,UAV 100可通过上述影像辨识和距离侦测处理,来侦测使用者的手势并实现手部降落。因此,通过直观操作,实现改良的人机互动设计。
本文中的各种示例性具体实施例以方法步骤或过程的一般上下文来描述,其可在一方面由计算机程序产品实现,包含在暂态或非暂态计算机可读取介质中,包括计算机可执行指令,例如代码,由网络环境中的计算机执行。计算机可读取介质可包括可移动与不可移动储存装置,包括但不限于只读存储器(ROM)、随机存取存储器(RAM)、光盘(CD)、数字多用途光盘(DVD)等。通常,程序模块可包括执行特定任务或实现特定抽像数据类型的常式、程序、物件、组件、数据结构等。计算机可执行指令、相关数据结构以及程序模块表示用于执行本文所揭示方法步骤中代码的示例。这种可执行指令或相关数据结构的特定序列表示用于在这些步骤或过程中实现所描述功能的相应动作的示例。
在上述说明书中,具体实施例已经参考可随实施改变的许多特定细节来说明。可以对所描述的具体实施例进行某些改编和修改。另外,图中所示的步骤顺序仅用于说明,并不旨在限定任何特定的步骤顺序。这样,本领域技术人员可理解,可在实现相同方法的同时,以不同顺序执行这些步骤。
如本文所用,除非另外特别说明,否则术语“或”包括所有可能的组合,除非不可行。例如,如果声明数据库可包括A或B,那么,除非另有说明或不可行,否则该数据库可包括A或B,或A和B。对于第二示例,如果声明数据库可包括A、B或C,那个,除非另有说明或不可行,否则该数据库可包括A、B或C,或A和B,或A和C,或B和C,或A和B和C。
在附图和说明书中,已经公开了示例性具体实施例。本领域技术人员将理解,可对所说明系统以及相关方法进行许多修改以及变化。从所说明系统及相关方法的规格与实践考量中,本领域技术人员也可了解其他具体实施例。在此所参考的说明书与示例都仅为示例性的,本发明确切的专利保护范围仍须以所附的权利要求书所界定的范围为准。
Claims (21)
1.一种非暂态计算机可读取介质,其储存可由无人机的处理器执行的一组指令,以使该无人机执行用于降落该无人机的方法,该方法包括:
辨识手的第一手势;
回应该第一手势的辨识,移动该无人机至悬浮于该手上方;
侦测该无人机与该手之间的距离;
回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及
回应该第二手势的辨识,将该无人机降落至该手上。
2.如权利要求1所述的非暂态计算机可读取介质,其中将该无人机降落在该手上进一步包括:
降低该无人机的飞行高度;以及
在降低该飞行高度时,将该无人机对准该手。
3.如权利要求2所述的非暂态计算机可读取介质,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,将该无人机对准该手进一步包括:
根据该影像内该手的一个或多个特征,识别该手的中心;以及
移动该无人机来追踪在该影像中央区域内的该手的中心。
4.如权利要求3所述的非暂态计算机可读取介质,其中识别该手的中心进一步包括:
侦测该影像内该手的轮廓;
撷取该轮廓以获得包括至少一个三角形的凸包和凸包缺陷;以及
根据该凸包与该凸包缺陷识别该手的中心。
5.如权利要求2所述的非暂态计算机可读取介质,其中将该无人机降落在该手上进一步包括:
在降低该飞行高度期间,侦测该无人机与该手之间的距离;以及
回应该距离低于临界值的侦测,将该无人机的一个或多个马达关闭。
6.如权利要求1所述的非暂态计算机可读取介质,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,辨识该手的该第二手势进一步包括:
侦测该影像内该手的轮廓;
撷取该轮廓,以获得关联于该影像内该轮廓的一个或多个凸点缺陷;以及
回应该一个或多个凸点缺陷数量改变的侦测,辨识该手的该第二手势。
7.如权利要求1所述的非暂态计算机可读取介质,其中该侦测该距离进一步包括:
沿着一方向朝向该手发射激光光束;
接收该激光光束的反射;以及
根据发射该激光光束与接收该反射之间的时间差,计算该距离。
8.一种用于降落无人机的方法,包括:
辨识手的第一手势;
回应该第一手势的辨识,移动该无人机至悬浮于该手上方;
侦测该无人机与该手之间的距离;
回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及
回应该第二手势的辨识,将该无人机降落至该手上。
9.如权利要求8所述的降落该无人机的方法,其中将该无人机降落在该手上进一步包括:
降低该无人机的飞行高度;以及
在降低该飞行高度时,将该无人机对准该手。
10.如权利要求9所述的降落该无人机的方法,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,将该无人机对准该手包括:
根据该影像内该手的一个或多个特征,识别该手的中心;以及
移动该无人机来追踪在该影像中央区域内的该手的中心。
11.如权利要求10所述的降落该无人机的方法,其中辨识该手的中心进一步包括:
侦测该影像内该手的轮廓;
撷取该轮廓以获得包括至少一个三角形的凸包和凸包缺陷;以及
根据该凸包与该凸包缺陷识别该手的中心。
12.如权利要求9所述的降落该无人机的方法,其中将该无人机降落在该手上进一步包括:
在降低该飞行高度期间,侦测该无人机与该手之间的距离;以及
回应该距离低于临界值的侦测,将该无人机的一个或多个马达关闭。
13.如权利要求8所述的降落该无人机的方法,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,辨识该手的该第二手势包括:
侦测该影像内该手的轮廓;
撷取该轮廓,以获得关联于该影像内该轮廓的一个或多个凸点缺陷;以及
回应该一个或多个凸点缺陷数量改变的侦测,决定已辨识该第二手势。
14.如权利要求8所述的降落该无人机的方法,其中侦测该距离进一步包括:
沿着一方向朝向该手发射激光光束;
接收该激光光束的反射;以及
根据发射该激光光束与接收该反射之间的时间差,计算该距离。
15.一种无人机,包括:
一个或多个处理器;以及
存储器,其储存当由该一个或多个处理器执行时,导致该无人机执行操作的指令,该操作包括:
辨识手的第一手势;
回应该第一手势的辨识,移动该无人机至悬浮于该手上方;
侦测该无人机与该手之间的距离;
回应该距离落在一范围内的决定,监控该手来辨识该手的第二手势;以及
回应该第二手势的辨识,将该无人机降落至该手上。
16.如权利要求15所述的无人机,其中将该无人机降落在该手上进一步包括:
降低该无人机的飞行高度;以及
在降低该飞行高度时,将该无人机对准该手。
17.如权利要求16所述的无人机,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,将该无人机对准该手进一步包括:
根据该影像内该手的一个或多个特征,识别该手的中心;以及
移动该无人机来追踪在该影像中央区域内的该手的中心。
18.如权利要求17所述的无人机,其中识别该手的中心进一步包括:
侦测该影像内该手的轮廓;
撷取该轮廓以获得包括至少一个三角形的凸包和凸包缺陷;以及
根据该凸包与该凸包缺陷识别该手的中心。
19.如权利要求16所述的无人机,其中将该无人机降落在该手上进一步包括:
在降低该飞行高度期间,侦测该无人机与该手之间的距离;以及
回应该距离低于临界值的侦测,将该无人机的一个或多个马达关闭。
20.如权利要求15所述的无人机,其中该监控包括监控由该无人机的摄影机所获得的影像内的该手,辨识该手的该第二手势进一步包括:
侦测该影像内该手的轮廓;
撷取该轮廓,以获得关联于该影像内该轮廓的一个或多个凸点缺陷;以及
回应该一个或多个凸点缺陷数量改变的侦测,辨识该手的该第二手势。
21.如权利要求15所述的无人机,其中侦测该距离进一步包括:
沿着一方向朝向该手发射激光光束;
接收该激光光束的反射;以及
根据发射该激光光束与接收该反射之间的时间差,计算该距离。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/407,627 US11106223B2 (en) | 2019-05-09 | 2019-05-09 | Apparatus and methods for landing unmanned aerial vehicle |
US16/407,627 | 2019-05-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111913493A true CN111913493A (zh) | 2020-11-10 |
Family
ID=73045783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910694832.0A Pending CN111913493A (zh) | 2019-05-09 | 2019-07-30 | 无人机降落装置及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11106223B2 (zh) |
JP (1) | JP7325264B2 (zh) |
CN (1) | CN111913493A (zh) |
TW (1) | TWI711560B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113190031B (zh) * | 2021-04-30 | 2023-03-24 | 成都思晗科技股份有限公司 | 基于无人机的森林火灾自动拍照跟踪方法、装置及系统 |
TWI802115B (zh) | 2021-11-30 | 2023-05-11 | 仁寶電腦工業股份有限公司 | 無人機的控制裝置及其控制方法 |
WO2023211690A1 (en) * | 2022-04-27 | 2023-11-02 | Snap Inc. | Landing an autonomous drone with gestures |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236409A (zh) * | 2010-04-30 | 2011-11-09 | 宏碁股份有限公司 | 基于影像的动作手势辨识方法及系统 |
CN102938060A (zh) * | 2012-12-07 | 2013-02-20 | 上海电机学院 | 动态手势识别系统及方法 |
KR20140055172A (ko) * | 2012-10-30 | 2014-05-09 | 삼성에스디에스 주식회사 | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 |
US20160062473A1 (en) * | 2014-08-29 | 2016-03-03 | Hand Held Products, Inc. | Gesture-controlled computer system |
WO2018195883A1 (zh) * | 2017-04-28 | 2018-11-01 | 深圳市大疆创新科技有限公司 | 无人飞行器的控制方法、设备及无人飞行器 |
CN109085885A (zh) * | 2018-08-14 | 2018-12-25 | 李兴伟 | 智能戒指 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100305857A1 (en) * | 2009-05-08 | 2010-12-02 | Jeffrey Byrne | Method and System for Visual Collision Detection and Estimation |
US20150309316A1 (en) * | 2011-04-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Ar glasses with predictive control of external device based on event input |
CN104685436B (zh) * | 2013-12-13 | 2018-06-05 | 深圳市大疆创新科技有限公司 | 无人飞行器起飞及降落方法 |
US10139906B1 (en) * | 2014-01-29 | 2018-11-27 | Guiyu Bai | Ring human-machine interface |
CN104866083B (zh) * | 2014-02-25 | 2020-03-17 | 中兴通讯股份有限公司 | 手势识别方法、装置和系统 |
EP3101511A1 (en) * | 2015-06-03 | 2016-12-07 | Nokia Technologies Oy | Monitoring |
US9836056B2 (en) * | 2015-06-05 | 2017-12-05 | Bao Tran | Smart vehicle |
EP3115926A1 (en) * | 2015-07-08 | 2017-01-11 | Nokia Technologies Oy | Method for control using recognition of two-hand gestures |
JP6308238B2 (ja) * | 2016-04-07 | 2018-04-11 | カシオ計算機株式会社 | 飛行型カメラ装置、飛行型カメラシステム、端末装置、飛行型カメラ装置の制御方法およびプログラム |
CN109416535B (zh) * | 2016-05-25 | 2022-11-11 | 深圳市大疆创新科技有限公司 | 基于图像识别的飞行器导航技术 |
CN109478320B (zh) * | 2016-07-12 | 2022-03-18 | 深圳市大疆创新科技有限公司 | 处理图像以获得环境信息 |
EP3494449A4 (en) * | 2016-08-05 | 2020-03-11 | SZ DJI Technology Co., Ltd. | METHODS AND RELATED SYSTEMS FOR COMMUNICATING WITH / CONTROLLING MOVABLE DEVICES BY GESTING |
US10866631B2 (en) * | 2016-11-09 | 2020-12-15 | Rockwell Automation Technologies, Inc. | Methods, systems, apparatuses, and techniques for employing augmented reality and virtual reality |
CN108121350B (zh) | 2016-11-29 | 2021-08-24 | 腾讯科技(深圳)有限公司 | 一种控制飞行器降落的方法以及相关装置 |
CN110337753B (zh) * | 2017-01-04 | 2023-03-10 | 纳米技术仪器公司 | 柔性且形状适形的绳状超级电容器 |
US10591605B2 (en) * | 2017-10-19 | 2020-03-17 | Gerard Dirk Smits | Methods and systems for navigating a vehicle including a novel fiducial marker system |
WO2019144295A1 (zh) | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 一种飞行控制方法、设备、飞行器、系统及存储介质 |
-
2019
- 2019-05-09 US US16/407,627 patent/US11106223B2/en active Active
- 2019-07-05 TW TW108123801A patent/TWI711560B/zh active
- 2019-07-30 CN CN201910694832.0A patent/CN111913493A/zh active Pending
- 2019-08-26 JP JP2019153831A patent/JP7325264B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236409A (zh) * | 2010-04-30 | 2011-11-09 | 宏碁股份有限公司 | 基于影像的动作手势辨识方法及系统 |
KR20140055172A (ko) * | 2012-10-30 | 2014-05-09 | 삼성에스디에스 주식회사 | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 |
CN102938060A (zh) * | 2012-12-07 | 2013-02-20 | 上海电机学院 | 动态手势识别系统及方法 |
US20160062473A1 (en) * | 2014-08-29 | 2016-03-03 | Hand Held Products, Inc. | Gesture-controlled computer system |
WO2018195883A1 (zh) * | 2017-04-28 | 2018-11-01 | 深圳市大疆创新科技有限公司 | 无人飞行器的控制方法、设备及无人飞行器 |
CN109085885A (zh) * | 2018-08-14 | 2018-12-25 | 李兴伟 | 智能戒指 |
Also Published As
Publication number | Publication date |
---|---|
JP7325264B2 (ja) | 2023-08-14 |
JP2020187716A (ja) | 2020-11-19 |
US20200356113A1 (en) | 2020-11-12 |
TW202041424A (zh) | 2020-11-16 |
US11106223B2 (en) | 2021-08-31 |
TWI711560B (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11726498B2 (en) | Aerial vehicle touchdown detection | |
US11242144B2 (en) | Aerial vehicle smart landing | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
US11592845B2 (en) | Image space motion planning of an autonomous vehicle | |
US11760484B2 (en) | Detecting optical discrepancies in captured images | |
CN108153334B (zh) | 无合作目标式无人直升机视觉自主返航与着降方法及系统 | |
US20190220039A1 (en) | Methods and system for vision-based landing | |
CN111913493A (zh) | 无人机降落装置及方法 | |
JP2018521406A (ja) | 表面を自動的に検査するためのシステムおよび方法 | |
US20220244746A1 (en) | Method of controlling an aircraft, flight control device for an aircraft, and aircraft with such flight control device | |
US20200012296A1 (en) | Unmanned aerial vehicle landing area detection | |
JP2014119828A (ja) | 自律飛行ロボット | |
US11119510B2 (en) | Systems and methods for generating flight paths for navigating an aircraft | |
US11982758B2 (en) | Relay point generation method and apparatus, and unmanned aerial vehicle | |
US11922819B2 (en) | System and method for autonomously landing a vertical take-off and landing (VTOL) aircraft | |
EP3992747B1 (en) | Mobile body, control method, and program | |
CN111615677B (zh) | 一种无人机的安全降落方法、装置、无人机及介质 | |
US20240168493A1 (en) | Automatic Selection of Delivery Zones Using Survey Flight 3D Scene Reconstructions | |
JP2024088679A (ja) | 航空機のスマート着陸 | |
CN116339357A (zh) | 无人机的控制方法、装置、无人机系统及计算机存储介质 | |
CN114355957A (zh) | 无人飞行器自主着船方法、系统和无人飞行器 | |
Lin | Vision Based Shipboard Recovery of Unmanned Rotorcraft |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |