CN105518555B - 目标追踪系统及方法 - Google Patents
目标追踪系统及方法 Download PDFInfo
- Publication number
- CN105518555B CN105518555B CN201480018129.3A CN201480018129A CN105518555B CN 105518555 B CN105518555 B CN 105518555B CN 201480018129 A CN201480018129 A CN 201480018129A CN 105518555 B CN105518555 B CN 105518555B
- Authority
- CN
- China
- Prior art keywords
- image
- information
- loose impediment
- unmanned vehicle
- documentation equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 117
- 230000033001 locomotion Effects 0.000 claims description 73
- 230000008859 change Effects 0.000 claims description 52
- 230000005540 biological transmission Effects 0.000 claims description 17
- 230000003068 static effect Effects 0.000 claims description 9
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 72
- 238000004891 communication Methods 0.000 description 60
- 230000001276 controlling effect Effects 0.000 description 29
- 238000010586 diagram Methods 0.000 description 27
- 230000000007 visual effect Effects 0.000 description 27
- 230000008569 process Effects 0.000 description 21
- 230000007246 mechanism Effects 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 241001465754 Metazoa Species 0.000 description 11
- 230000001133 acceleration Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 11
- 210000004027 cell Anatomy 0.000 description 10
- 230000035945 sensitivity Effects 0.000 description 10
- 238000005183 dynamical system Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000012423 maintenance Methods 0.000 description 6
- 238000005096 rolling process Methods 0.000 description 6
- 210000000352 storage cell Anatomy 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000006698 induction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 241000894007 species Species 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 241000196324 Embryophyta Species 0.000 description 2
- 230000004888 barrier function Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000002068 genetic effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000005055 memory storage Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000256844 Apis mellifera Species 0.000 description 1
- 241000271566 Aves Species 0.000 description 1
- 241000282465 Canis Species 0.000 description 1
- 241001481833 Coryphaena hippurus Species 0.000 description 1
- 241000283073 Equus caballus Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 235000006508 Nelumbo nucifera Nutrition 0.000 description 1
- 240000002853 Nelumbo nucifera Species 0.000 description 1
- 235000006510 Nelumbo pentapetala Nutrition 0.000 description 1
- 241001494479 Pecora Species 0.000 description 1
- 241000288906 Primates Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 241000283984 Rodentia Species 0.000 description 1
- 241000282898 Sus scrofa Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013524 data verification Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 238000009790 rate-determining step (RDS) Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000005496 tempering Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0038—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/12—Target-seeking control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
- B64U2101/31—UAVs specially adapted for particular uses or applications for imaging, photography or videography for surveillance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
Abstract
本发明提供利用无人飞行器追踪目标物的系统、方法及设备。所述无人飞行器用于从控制终端接收目标物信息,该目标物信息是关于无人飞行器上的影像设备所要追踪的目标物。所述无人飞行器利用所述目标物信息自动地追踪该目标物,以维持该目标物在所述影像设备所捕获的一个或者多个影像中的预设位置及/或尺寸。所述控制终端可以显示影像设备捕获的影像,并允许用户输入相关的目标物信息。
Description
背景技术
飞行器,如无人飞行器(UAV),可以用于执行监控、侦察、军事和民用的探索任务。飞行器可以搭载负载用以执行特殊的功能,如捕获周围环境的影像。
在某些情况下,可能需要飞行器追踪特殊的目标。对于小型飞行器,这样的追踪,传统上可以通过用户操作的远程控制终端或者设备发出的控制指令所实现。这样的人工追踪控制在某些情况下可能会遇到困难,如可移动物体或者目标物运动的速度过快,或者从用户的角度观察,可移动物体的至少一部分被遮挡。此外,这样的人工追踪需要专门人员的持续专注力,以控制飞行器上的相机,而该相机是与控制飞行器飞行的用户相分离的,因此,增加了飞行器的空中摄影及其它应用的成本。
发明内容
有些情况下,需要飞行器追踪特定目标物。因此,需要一种改进的无人飞行器的追踪方法及系统,能够提供自动或者半自动的目标物追踪,从而解放利用飞行器人工追踪目标物的操作者。本发明提供利用无人飞行器追踪目标物的系统、方法及设备。所述无人飞行器用于从控制终端接收目标物信息,该目标物信息与无人飞行器上的影像设备所要追踪的目标物相关。所述无人飞行器利用所述目标物信息自动地追踪该目标物,以维持该目标物在所述影像设备所捕获的一个或者多个影像中的预设位置及/或尺寸。关于追踪的任何描述都包括影像设备的可视化追踪。所述控制终端可以显示影像设备捕获的影像,并允许用户输入相关的目标物信息。
根据本发明的一方面,提供一种无人飞行器(unmanned aerial vehicle,UAV)的控制方法。所述方法包括:从远程终端接收一个或者多个飞行指令,以控制无人飞行器沿着飞行线路运行;从所述远程终端接收目标物信息,该目标物信息与所述无人飞行器上的影像设备所追踪的目标物相关;当所述无人飞行器根据远程终端发送的一个或者多个飞行指令沿着所述飞行线路运动时,自动调整所述无人飞行器或者影像设备中的至少一个,以根据所述目标物信息追踪该目标物。
根据本发明的另一方面,提供一种具有追踪功能的无人飞行器。所述无人飞行器包括:一个或者多个接收器,用于单独地或者共同地从远程终端接收(1)一个或者多个飞行指令,以控制无人飞行器沿着飞行线路移动,及(2)无人飞行器上的影像设备所追踪的目标物的目标物信息;一个或者多个处理器,用于当所述无人飞行器根据远程终端发送的一个或者多个飞行指令沿着所述飞行线路运动时,单独地或者共同地,自动调整所述无人飞行器或者影像设备,以根据所述目标物信息追踪该目标物。
根据本发明的另一方面,提供一个控制无人飞行器的系统。所述系统包括:一个或者多个接收器,用于单独地或者共同地,从远程终端接收(1)一个或者多个飞行指令,以控制无人飞行器沿着飞行线路移动,及(2)无人飞行器上的影像设备所追踪的目标物的目标物信息;一个或者多个处理器,用于当所述无人飞行器根据远程终端发送的一个或者多个飞行指令沿着所述飞行线路运动时,单独地或者共同地,自动调整所述无人飞行器或者影像设备,以根据所述目标物信息追踪该目标物。
某些实施例中,所述影像设备包括相机或者摄录机。
某些实施例中,所述一个或者多个飞行指令用于控制所述无人飞行器的速度、位置或者姿态。
在某些实施例中,所述目标物相对于参考物体大体上是静止的。
在某些实施例中,所述目标物相对于参考物体是运动的。
在某些实施例中,所述目标物信息包括初始目标物信息。
在某些实施例中,所述初始目标物信息包括目标物在所述影像设备所捕获的影像中的初始位置或者初始尺寸。
在某些实施例中,所述目标物信息包括目标物的类型信息。
在某些实施例中,所述根据目标物信息追踪目标物进一步包括基于目标物的类型信息,利用影像识别算法,识别所述影像设备所捕获的一个或者多个影像中的目标物。
在某些实施例中,所述目标物的类型信息包括颜色、纹理、或者样式信息。
在某些实施例中,所述目标物信息包括预期目标物信息。
在某些实施例中,所述预期目标物信息包括目标物在所述影像设备所捕获的影像中的预期位置和尺寸。
在某些实施例中,所述目标物的预期尺寸与初始尺寸相同。
在某些实施例中,所述目标物的预期位置与初始位置相同。
在某些实施例中,根据目标物信息追踪目标物包括在影像设备捕获的一个或者多个影像中,在预设公差范围内维持目标物的预期位置或者预期尺寸。
在某些实施例中,所述影像设备通过承载体搭载在所述无人飞行器上,以允许影像设备相对于无人飞行器运动。
在某些实施例中,所述承载体用于使得影像设备相对于所述无人飞行器绕着至少两个轴旋转。
在某些实施例中,根据目标物信息追踪目标物包括当无人飞行器根据远程终端的一个或者多个飞行指令沿着飞行线路运动时,自动调整所述无人飞行器、所述承载体、或者所述影像设备中的至少一个。
在某些实施例中,所述目标物信息包括预期目标物信息,以及根据目标物信息追踪目标物包括:基于影像设备捕获的一个或者多个影像确定当前的目标物信息;侦测当前的目标物信息与预期的目标物信息之间的偏差;计算无人飞行器、承载体或者影像设备的调整量,以纠正所述偏差。
在某些实施例中,所述偏差是与目标物位置的改变有关,所述计算的调整量与无人飞行器的角速度有关。
在某些实施例中,所述角速度是相对于无人飞行器的航向轴。
在某些实施例中,所述角速度是相对于无人飞行器的俯仰轴。
在某些实施例中,所述偏差与目标物位置的改变有关,以及所述计算的调整量与影像设备相对于无人飞行器的角速度有关。
在某些实施例中,所述计算的调整量用于产生承载体的控制指令,以使影像设备相对于无人飞行器运动。
在某些实施例中,所述偏差与目标物尺寸的改变有关,所述计算的调整量与无人飞行器的线速度有关。
在某些实施例中,所述偏差与目标物尺寸的改变有关,所述计算的调整量与影像设备的一个或者多个参数有关。
在某些实施例中,所述影像设备的一个或者多个参数包括焦距、变焦、或者焦点。
在某些实施例中,所述计算的调整量被限制为预设范围。
在某些实施例中,所述预设范围对应控制系统的操纵量的预设范围。
在某些实施例中,所述控制系统包括所述无人飞行器的飞行控制系统或者所述承载体的控制系统。
在某些实施例中,如果所计算的调整量落到所述预设范围之外,则提供警告信号。
在某些实施例中,追踪所述目标物包括将所述计算的调整量与预设的最大阈值相比较,并且当所述计算的调整量超过所述预设的最大阈值时,提供该预设的最大阈值。
在某些实施例中,所述预设的最大阈值包括所述无人飞行器或者影像设备的最大角速度或者最大线速度。
在某些实施例中,追踪所述目标物包括将所述计算的调整量与预设的最小阈值相比较,并且当所述计算的调整量小于所述预设的最小阈值时,提供该预设的最小阈值。
在某些实施例中,所述预设的最小阈值包括所述无人飞行器或者影像设备的最小角速度或者最小线速度。
在某些实施例中,所述目标物信息是从远程用户可访问的远程控制设备处接收。
在某些实施例中,所述一个或者多个飞行指令从相同的远程控制设备处接收。
在某些实施例中,所述一个或者多个飞行指令从不同的远程控制设备处接收。
在某些实施例中,所述远程控制设备用于接收用户通过触摸屏、操纵杆、键盘、鼠标或者触控笔的输入。
在某些实施例中,所述远程控制设备用于接收用户通过可穿戴设备的输入。
在某些实施例中,所述远程控制设备用于:从无人飞行器接收影像设备捕获的一个或者多个影像;显示所述一个或者多个影像;接收用户从所显示的影像中选择的目标物;基于用户选择的目标物,产生目标物的目标物信息;将所述目标物信息传送给无人飞行器。
在某些实施例中,所述远程控制设备进一步用于基于用户的输入产生一个或者多个飞行指令,以及将该飞行指令传送给所述无人飞行器。
在某些实施例中,所述远程控制设备进一步用于接收关于目标物的追踪信息,以及显示具有所述追踪信息的一个或者多个影像。
根据本发明的其它方面,提供一种具备追踪能力的无人飞行器。所述无人飞行器包括:一个或者多个接收器,单独地或者共同地,从远程终端接收用户指定的目标物的目标物信息,其中,所述目标物为无人飞行器上的影像设备所追踪的目标物,所述用户指定的目标物信息包括目标物在所述影像设备所捕获的影像中的预设位置或者预设尺寸,所述影像设备通过承载体搭载在无人飞行器上,以允许所述影像设备相对于所述无人飞行器运动;一个或者多个处理器,单独地或者共同地,基于影像设备捕获的一个或者多个影像,侦测目标物的预设位置与预设尺寸的偏差;产生指令以自动调整所述无人飞行器、所述承载体、或者影像设备,以校正所述偏差。
根据本发明的其它方面,提供一种控制无人飞行器的系统。所述系统包括:一个或者多个接收器,单独地或者共同地,从远程终端接收用户指定的目标物的目标物信息,所述目标物为无人飞行器上的影像设备所追踪的目标物,所述用户指定的目标物信息包括目标物在所述影像设备所捕获的影像中的预设位置或者预设尺寸,所述影像设备通过承载体搭载在无人飞行器上,以允许所述影像设备相对于所述无人飞行器运动;一个或者多个处理器,单独地或者共同地,基于影像设备捕获的一个或者多个影像,侦测目标物的预设位置与预设尺寸的偏差;产生指令以自动调整所述无人飞行器、所述承载体、或者影像设备,以校正所述偏差。
根据本发明的其它方面,提供一种控制无人飞行器的方法。所述方法包括:从远程终端接收用户指定的目标物的目标物信息,所述目标物为无人飞行器上的影像设备所追踪的目标物,所述用户指定的目标物信息包括目标物在所述影像设备所捕获的影像中的预设位置或者预设尺寸,所述影像设备通过承载体搭载在无人飞行器上,以允许所述影像设备相对于所述无人飞行器运动;所述无人飞行器的处理器基于影像设备捕获的一个或者多个影像,侦测目标物的预设位置与预设尺寸的偏差;自动调整所述无人飞行器、所述承载体、或者影像设备,以校正所述偏差。
某些实施例中,所述影像设备包括相机或者摄录机。
在某些实施例中,所述方法进一步包括从所述远程终端接收一个或者多个用于控制所述无人飞行器的速度、位置、方向或者姿态的指令。
在某些实施例中,所述方法进一步包括从所述远程终端接收一个或者多个用于控制所述承载体的速度、位置、方向或者姿态的指令。
在某些实施例中,所述方法进一步包括从所述远程终端接收一个或者多个用于控制所述影像设备的一个或者多个操作参数的指令。
在某些实施例中,所述影像设备的一个或者多个操作参数包括焦距、变焦水平、成像模式、影像分辨率、焦点、景深、曝光、镜头速度、或者视场。
在某些事实例中,所述承载体用于允许影像设备相对于所述无人飞行器绕着至少一个轴旋转。
在某些事实例中,所述承载体用于允许影像设备相对于所述无人飞行器绕着至少两个轴旋转。
在某些实施例中,所述目标物的目标物信息进一步包括目标物类型信息。
在某些实施例中,所述目标物类型信息包括目标物的颜色或者纹理。
在某些实施例中,所述目标物的预设位置包括目标物的初始位置或者预期位置。
在某些实施例中,所述目标物的预设尺寸包括目标物的初始尺寸或者预期尺寸。
在某些实施例中,所述侦测目标物的预设位置或者预设尺寸的偏差包括将影像设备所捕获的影像中的目标物位置或者尺寸分别与所述目标物的预设位置或者预设尺寸相比较。
在某些实施例中,调整所述无人飞行器、所述承载体、或者影像设备包括计算所述无人飞行器、承载体、或者影像设备的调整量,以校正所述偏差。
在某些实施例中,所述偏差与目标物位置的改变相关,所述调整量与无人飞行器的角速度相关。
在某些实施例中,所述角速度与无人飞行器的航向轴相关。
在某些实施例中,所述角速度与无人飞行器的俯仰轴相关。
在某些实施例中,所述偏差是与目标物位置的改变相关,以及所述调整量是与影像设备相对于无人飞行器的角速度相关。
在某些实施例中,所述计算的调整量用于产生承载体的控制指令,以使影像设备相对于无人飞行器运动。
在某些实施例中,所述角速度是与影像设备的航向轴相关。
在某些实施例中,所述角速度是与影像设备的俯仰轴相关。
在某些实施例中,所述偏差是与目标物尺寸的改变相关,及所述调整量是与无人飞行器的线速度相关。
在某些实施例中,所述偏差是与目标物尺寸的改变相关,及所述调整量与影像设备的一个或者多个参数相关。
在某些实施例中,所述影像设备的一个或者多个参数包括焦距、变焦水平、成像模式、影像分辨率、焦点、景深、曝光、镜头速度、或者视场。
在某些实施例中,所述计算的调整量被限制为预设范围。
在某些实施例中,所述预设范围对应控制系统的操纵量的范围。
在某些实施例中,所述控制系统包括所述无人飞行器的飞行控制系统或者所述承载体的控制系统。
在某些实施例中,如果所述调整量落到所述预设范围之外,则提供警告信号。
在某些实施例中,所述警告信号用于提供音频或者视觉信号。
在某些实施例中,所述警告信号用于提供动力信号。
在某些实施例中,所述方法进一步包括实时地传送影像设备捕获的影像给远程用户能够访问的远程终端。
在某些实施例中,所述远程终端包括用于显示影像设备捕获的影像的显示设备。
在某些实施例中,所述远程终端包括用于提供所述目标物信息的输入设备。
在某些实施例中,所述输入设备包括触摸屏、操纵杆、键盘、鼠标、或者触控笔。
在某些实施例中,所述输入设备包括可穿戴式设备。
在某些实施例中,所述目标物信息是根据传送的影像所提供。
在某些实施例中,所述方法进一步包括,大致实时地提供目标物的追踪信息给远程终端。
在某些实施例中,所述远程终端用于:接收用户从显示在远程终端的一个或者多个影像中选择的目标物;及基于用户选择的目标物产生目标物信息。
根据本发明的另一个方面,提供一种控制无人飞行器的方法。所述方法包括:通过显示设备大致实时地显示无人飞行器所搭载的影像设备所捕获的一个或者多个影像;通过输入设备接收用户从大致实时被显示的所述一个或者多个影像中选择的目标物;基于用户选择的目标物产生目标物信息;提供所述目标物信息给无人飞行器,以允许所述无人飞行器根据所述目标物信息自主追踪所述目标物。
根据本发明的另一个方面,提供一种控制无人飞行器的系统。所述系统包括:显示设备,用于显示无人飞行器所搭载的影像设备捕获的一个或者多个影像;输入设备,用于接收用户从显示设备显示的一个或者多个影像中选择的目标物;一个或者多个处理器,用于单独地或者共同地,基于用户选择的目标物产生目标物信息;以及传送器,用于提供所述目标物信息给无人飞行器,以使所述无人飞行器根据所述目标物信息自主追踪所述目标物。
根据本发明的另一个方面,提供一种控制无人飞行器的装置。所述装置包括:显示设备,用于显示无人飞行器所搭载的影像设备所捕获的一个或者多个影像;输入设备,用于接收用户从显示设备显示的一个或者多个影像中选择的目标物;一个或者多个处理器,用于单独地或者共同地,基于用户选择的目标物产生目标物信息;以及传送器,用于提供所述目标物信息给无人飞行器,以使所述无人飞行器根据所述目标物信息自主追踪所述目标物。
在某些实施例中,所述目标物信息包括初始目标物信息。
在某些实施例中,所述初始目标物信息包括目标物在所述影像设备所捕获的影像中的初始位置和初始尺寸。
在某些实施例中,所述初始目标物信息是基于用户选择的目标物产生的。
在某些实施例中,所述目标物信息包括目标物的类型信息。
在某些实施例中,所述目标物的类型信息包括颜色、纹理、或样式信息。
在某些实施例中,所述目标物的类型信息是基于用户选择的目标物产生的。
在某些实施例中,所述目标物信息包括预期目标物信息。
在某些实施例中,所述预期目标物信息是基于用户选择的目标物产生的。
在某些实施例中,所述预期目标物信息包括目标物在所述影像设备所捕获的影像中的预期位置和尺寸。
在某些实施例中,所述目标物信息不包括预期目标物信息。
在某些实施例中,所述输入设备包括触摸屏、操纵杆、键盘、鼠标触控笔,或者可穿戴式设备。
在某些实施例中,用户选择目标物是通过用户在显示设备所显示的一个或者多个影像中选择至少一个区域来实现,该选择区域对应所述目标物。
在某些实施例中,用户选择目标物是通过用户在显示设备所显示的一个或者多个影像中直接触碰至少一个区域来实现,该触碰的区域对应所述目标物。
在某些实施例中,用户通过触控笔、鼠标、键盘或者可穿戴式设备选择所述区域。
在某些实施例中,选择所述区域包括在该区域触碰、滑动、画圈、或点击操作。
在某些实施例中,所述一个或者多个处理器,单独地或者共同地,进一步用于响应用户对选择的目标物,在显示设备上显示具有选择指示标识的被选择的目标物,所述选择指示标识表示所述目标物已经被用户选择。
在某些实施例中,所述一个或者多个处理器,单独地或者共同地,进一步用于接收有关目标物的追踪信息,基于该追踪信息,在影像设备随后捕获的影像中显示具有追踪指示标识的被选择的目标物,所述追踪指示标识表示无人飞行器根据目标物信息大致实时地所追踪的目标物。
根据本发明的其它方面,提供一种控制无人飞行器的方法。所述方法包括:大致实时地接收所述无人飞行器所搭载的影像设备捕获的一个或者多个影像;接收用户指定的目标物的目标物信息,该目标物信息包括目标物在所述一个或者多个影像中的预设位置和尺寸;将所述用户指定的目标物信息发送给无人飞行器;显示所述一个或者多个影像,与该一个或者多个影像中显示的目标物相关联的追踪指示标识,及根据用户指定的目标物信息大致实时地指示所述无人飞行器所追踪的目标物的追踪指示标识标识。
根据本发明的其它方面,提供一种控制无人飞行器的装置。所述装置包括:接收器,用于大致实时地接收所述无人飞行器所搭载的影像设备捕获的一个或者多个影像;输入设备,用于接收用户指定的目标物的目标物信息,该目标物信息包括目标物在所述一个或者多个影像中的预设位置和尺寸;传送器,用于将所述用户指定的目标物信息发送给无人飞行器;显示设备,用于显示所述一个或者多个影像以及与该一个或者多个影像中显示的目标物相关联的追踪指示标识,所述追踪指示标识,根据用户指定的目标物信息大致实时地指示所述无人飞行器所追踪的目标物。
根据本发明的其它方面,提供一种控制无人飞行器的系统。所述系统包括:接收器,用于大致实时地接收所述无人飞行器所搭载的影像设备捕获的一个或者多个影像;输入设备,用于接收用户指定的目标物的目标物信息,该目标物信息包括目标物在所述一个或者多个影像中的预设位置和尺寸;传送器,用于将所述用户指定的目标物信息发送给无人飞行器;显示设备,用于显示所述一个或者多个影像以及与该一个或者多个影像中显示的目标物相关联的追踪指示标识,所述追踪指示标识标识根据用户指定的目标物信息大致实时地指示所述无人飞行器所追踪的目标物。
在某些实施例中,所述输入设备进一步用于接收一个或者多个指令,所述指令用于控制所述无人飞行器的速度、位置、方向、或者姿态,或者控制影像设备的操作参数。
在某些实施例中,所述影像设备通过承载体搭载在所述无人飞行器上,以允许所述影像设备相对于所述无人飞行器沿着至少一个轴旋转,以及所述输入设备进一步用于接收一个或者多个指令,所述指令用于控制所述负载的速度、位置、方向、或者姿态。
在某些实施例中,所述承载体用于允许所述影像设备相对于所述无人飞行器绕着至少两个轴旋转。
在某些实施例中,所述影像设备根据所述目标物信息,通过自动地调整所述无人飞行器、所述承载体或者所述影像设备实现对目标物的追踪。
在某些实施例中,包括第二输入设备,用于接收一个或者多个指令,所述指令用于控制所述无人飞行器的速度、位置、方向、或者姿态,或者控制影像设备的操作参数。
在某些实施例中,所述影像设备通过承载体搭载在所述无人飞行器上,以允许所述影像设备相对于所述无人飞行器绕着至少一个轴旋转,所述系统进一步包括第二输入设备,用于接收一个或者多个指令,所述指令用于控制所述承载体的速度、位置、方向、或者姿态。
在某些实施例中,所述一个或者多个操作参数包括焦距、变焦水平、成像模式、影像分辨率、焦点、景深、曝光、镜头速度、或者视场。
在某些实施例中,所述影像设备根据所述目标物信息,通过自动地调整所述无人飞行器、所述承载体或者所述影像设备实现对目标物的追踪。
在某些实施例中,所述预设位置包括目标物的初始位置。
在某些实施例中,所述预设尺寸包括目标物的初始尺寸。
在某些实施例中,所述预设位置包括目标物的预期位置。
在某些实施例中,所述预设尺寸包括目标物的预期尺寸。
在某些实施例中,所述目标物信息进一步包括目标物类型信息。
在某些实施例中,所述目标物信息是基于用户选择的目标物产生的。
在某些实施例中,所述追踪指示标识包括几何形状、钩形符号或者箭头。
在某些实施例中,所述几何形状包括圆形、矩形或者三角形。
在某些实施例中,所述影像设备对目标物的追踪是根据所述目标物信息通过自动调整所述无人飞行器或者影像设备实现的。
应该了解,本发明的不同实施例可以单独执行也可以彼此结合。本发明所描述的不同实施例可以应用在下述描述的应用中,也可以应用在任何类型的可移动物体。关于飞行器,如无人飞行器的任何描述,都可以应用在任何的可移动物体上,例如,车辆。此外,所描述的系统、设备以及方法中,任何关于空中运动,如飞行的描述都可以应用在其它类型的运动,如地面或者水面上的运动,水下运动或者空间运动。
本领域技术人员根据下述详细描述的实施例,可以了解到本揭露其它的方面及优点,然而,本揭露的实施例仅仅是示意性的,简单的描述了本发明的较佳实施方式。本发明还可以有很多其它的实施例,并且实施例的很多细节能够有多种形式的修改,都不脱离本发明的精神。以下,结合附图对本发明的实施例进行描述,该描述并非限制性的。
援引加入
本案说明书所提到的任何出版物、专利、专利申请都以引用方式并入本文,如同每一个单独的出版物、专利或专利申请均被明确且分别地指明通过引用并入本文。
附图说明
本发明的新颖性特征已阐明于随附的权利要求中。下面将参考以下应用本发明原理的示例性实施方式的详细描述以及以下附图获得对本发明特征以及有益效果的更佳的理解。其中,所述附图中:
图1是本发明实施例中目标物追踪系统示意图。
图2是本发明实施例中追踪系统各部件之间的影像相关的数据的流程示意图。
图3是本发明实施例中追踪系统各部件之间的控制数据的流程示意图。
图4是本发明实施例中执行目标物追踪的方法流程图。
图5是本发明实施例中可移动物体、承载体、及负载的配置图。
图6是本发明实施例中追踪方法中的维持目标物的预期位置的示意图。
图7是本发明实施例中追踪方法中的维持目标物的预期尺寸的示意图。
图8是本发明实施例中执行目标物追踪的另一方法的流程图。
图9是本发明实施例中控制可移动物体执行飞行以及追踪的流程图。
图10是本发明实施例中选择目标物的方法流程图。
图11是本发明实施例中观察追踪的目标物的方法流程图。
图12是本发明实施例中控制可移动物体的控制终端的示意图。
图13A-C是本发明实施例中利用用户界面选择目标物的示意图。
图14是本发明实施例中无人飞行器的示意图。
图15是本发明实施例中包括承载体及负载的可移动物体的示意图。
图16是本发明实施例中追踪可移动物体的系统的示意图。
图17是本发明实施例中控制可移动物体的系统的示意图。
图18是本发明的应用实例。
具体实施方式
本发明提供了通过无人飞行器进行目标物追踪的系统、方法及设备。所述无人飞行器用于从控制终端接收目标物信息,所述目标物信息是搭载在无人飞行器上的影像设备所追踪的目标物的信息。所述目标物信息可以被所述无人飞行器所利用,以自动地控制影像设备追踪所述目标物,以使目标物在影像设备所捕获的影像中维持预设位置及/或尺寸。当控制无人飞行器根据用户指令及/或者预设飞行线路飞行时,执行所述目标物的追踪。所述控制终端可以用于显示影像设备捕获的影像以及允许用户输入相关的目标物信息。
利用本发明提供的追踪系统及方法,单个用户可以同时控制无人飞行器的飞行以及目标物的追踪,而不需要其它人员的帮助。该用户利用控制终端的用户界面指定需要追踪的目标物及/或者需要追踪的目标物的类型。用户指定的目标物信息可以传送给无人飞行器,该无人飞行器可以自主地追踪所述目标物,例如,通过利用无人飞行器所搭载的影像设备。影像设备捕获的影像(例如,图片或者视频),可以实时传送给控制终端以显示、播放、存储或者其它目的。用户利用该控制终端也可以实时改变或者调整所要追踪的目标物。优选地,当用户从事其它活动,如控制无人飞行器的飞行或者其它活动时,可以执行无人飞行器的自主追踪。
例如,当用户从事各种活动,如远足或者骑车时,用户可以设置所述无人飞行器监控用户自己。用户可以利用控制终端提供的用户界面指定自己作为无人飞行器追踪的目标物。例如,用户可以在控制终端的用户界面上所显示的影像中,例如,使用触摸屏,选择自己作为目标物。一旦目标物信息传送给无人飞行器,用户可以从低水平的操作中,如手动调整无人飞行器、承载体或者影像设备追踪目标物的操作中解放出来。随之而来的,当无人飞行器利用本发明提供的方法,根据提供的目标物信息,实时地、自动地追踪自己时,用户可以专注于其它活动,如骑车。例如,无人飞行器或者影像设备的姿态、位置、速率、变焦、或者其它方面的参数可以自动调整,以使得用户在影像设备所捕获的影像中始终维持在指定的位置或者尺寸。追踪过程中捕获的影像(如图片或者视频)可以以数据流的方式实时地传送给控制终端以显示、播放、存储或者其它目的。上述所有的操作都可以一个人以相对轻松的方式实现,使得用户能够轻易地实现以前很难实现的任务。
本发明所描述的追踪方法及系统可以有效地促进追踪过程中低水平控制部分的自动化,以减少人工追踪所需要做的工作以及所导致的错误。同时,本发明描述的追踪系统及方法,如果需要的话,可以允许用户维持高水平的追踪过程(例如,通过指定所追踪的目标物的类型)。
图1是本发明目标物追踪系统100较佳实施例的示意图。目标物追踪系统100包括可移动物体101以及控制终端112。所述目标物追踪系统100可以用于追踪一个或者多个目标物116。尽管本发明将可移动物体101描述为无人飞行器,但这并不是限制,其它任何类型的可移动物体都适用于本发明。本领域技术人员应该了解,本案各实施例所描述的飞行系统中的内容可以应用于任何的可移动物体。
在某些实施例中,所述可移动物体101可以包括承载体102以及负载104。所述承载体102可以允许负载104绕着一个、两个、三个或者更多的轴旋转。可选地或者额外地,所述承载体102可以允许负载104沿着一个、两个、三个或者更多的轴线性运动。用于旋转或者平移运动的轴可以彼此正交也可以不是正交。
在某些实施例中,所述负载104可以刚性地搭载或者连接于可移动物体101上,以使得负载104相对于可移动物体101维持相对静止的状态。例如,连接到可移动物体101及负载104的承载体102可以不允许负载104相对于可移动物体101移动。可选地,所述负载104可直接搭载在可移动物体101上而不需要承载体。
在某些实施例中,所述负载104可以包括一个或者多个传感器,用于监控或者追踪一个或者多个目标物116。所述负载可以包括影像捕获设备或者影像设备(如相机、摄录机、红外线影像设备、紫外线影像设备或者类似的设备),音频捕获装置(例如,抛物面反射传声器),红外线影像设备等。任何适合的传感器都可以集成到所述负载104上,以捕获可视信号、音频信号、电磁信号、或则任何其它期望的信号。所述传感器可以提供静态感应数据(如图片)或者动态感应数据(如视频)。所述传感器可以实时地或者高频率地持续捕获感应数据。
在各种实施例中,所述被可移动物体101追踪的目标物体116可以包括任何自然的或者人工制造的物体或者纹理,例如,地理景观(如山川、植被、山谷、湖泊、河流等),建筑物,运输工具(如飞机、轮船、小轿车、卡车、公交车、货车或者摩托车)。所述目标物体116可以包括生物体,如人或者动物。所述目标物体116相对任何合适的参照物可以是运动的或者静止的。所述参照物可以是相对固定的参照物(如周围环境或者地球)。可选地,所述参照物可以是运动的参照物(如移动的运输工具)。在各种实施例中,所述目标物体116可以包括被动目标物或者主动目标物。所述主动目标物可以传送该目标物的信息,如该目标物的GPS位置,给可移动物体。所述信息可以通过无线传输方式从主动目标物中的通讯单元传送给可移动物体的通讯单元。主动目标物可以是环保的运输工具、建筑物、军队等。被动目标物不能传送目标物的信息。被动目标物可以包括中立的或者敌对的运输工具、建筑物、军队等。
所述可移动物体101可以用于接收控制数据,以及所述控制终端112可以用于提供控制数据。所述控制数据用于直接或者间接地控制可移动物体101的各方面。在某些实施例中,所述控制数据可以包括控制可移动物体飞行参数的飞行指令,所述飞行参数如可移动物体101的位置、速度、方向、或者姿态。所述控制数据可以用于控制无人飞行器的飞行。所述控制数据可以实现一个或者多个动力单元106的操作,以实现无人飞行器的飞行。在其它实施例中,所述控制数据可以包括控制可移动物体101的个别部件的指令。例如,所述控制数据包括控制承载体102操作的信息。例如,所述控制数据可以用于控制承载体102的致动机构,以使负载104相对于可移动物体101产生角运动或者线运动。其它实施例中,所述控制数据用于控制不承载负载的承载体102的运动。其它实施例中,所述控制数据用于调整负载104的一个或者多个操作参数,如捕获静止的或者运动的图像、镜头的变焦、开启/关闭、切换成像模式、改变影像分辨率、改变焦点、改变景深、改变曝光时间、改变镜头速度、改变可视角度或者视场等。在其它实施例中,所述控制数据可用于控制可移动物体101的传感系统(未图示)、通讯系统(未图示)等。
在某些实施例中,所述控制终端112的控制数据可以包括目标物信息。在某些情况下,所述目标物信息包括指定的目标物的特征,如初始位置(如坐标)及/或者目标物在可移动物体101所搭载的影像设备所捕获一个或者多个影像中的尺寸。额外地或者可选地,所述目标物信息可以包括目标物的类型信息,如目标物的类型或者分类的特征,包括颜色、纹理、样式、尺寸、形状、维度等。目标物信息可以包括代表目标物的影像的数据,包括目标物在视场内的影像。视场可以由影像设备所能捕获到的影像所定义或者组成。
目标物信息可以包括预期目标物信息。所述预期目标物信息指定所追踪的目标物在影像设备所捕获的影像中所预期需满足的特征。所述预期目标物信息用于调整可移动物体、承载体及/或影像设备,以依据该预期目标物信息使所追踪的目标物在一个或者多个影像中维持一个样态。例如,可以追踪所述目标物,使得目标物在影像设备所捕获的一个或者多个影像中维持一个预期位置或者尺寸。例如,所追踪的目标物的预期位置可以是接近影像的中心或者偏离中心。所追踪的目标物的预期尺寸可以指包含大概某一数量的像素。所述预期目标物信息与初始目标物信息可以相同也可以不相同。在各种实施例中,所述预期目标物信息可以由所述控制终端提供,也可以不是由所述控制终端提供。例如,预期目标物信息可以以硬编码的形式记录在可移动物体的处理单元所执行的逻辑电路中,存储在可移动物体本地及/或者远程的数据存储单元中,或者从其它合适的来源获取。
在某些实施例中,所述目标物信息(包括指定的目标物信息及目标物的类型信息)中的至少一部分可以通过控制终端112的用户输入产生。额外地或者可选地,所述目标物信息可以通过其它的来源产生。例如,所述目标物类型信息可以来自于本地或者远程的数据存储单元中以前的影像或者数据。所述影像可以是可移动物体101或者其它设备所搭载的影像设备以前所捕获的影像。所述影像可以是计算机产生的。所述目标物的类型信息可以是用户选择的,也可以是可移动物体所默认提供的。
可移动物体101可以利用所述目标物信息以追踪一个或者多个目标物体116。所述追踪或者其它相关的数据处理可以至少一部分是通过可移动物体101的一个或者多个处理器所执行。在某些实施例中,所述目标物信息可以用于可移动物体101识别要追踪的目标物116。所述目标物的识别可以基于初始目标物信息而执行,所述初始目标物信息包括特殊目标物的指定特征(例如目标物在可移动物体所捕获的影像中的初始坐标),或者一类目标物的通用特征(例如所要追踪的目标物的颜色或者纹理)。在某些实施例中,所述目标物的识别可以包括任何合适的影像识别及/或匹配算法。在某些实施例中,所述目标物的识别包括比较两个或者更多的影像,以确定、提取或者匹配影像中的特征。
一旦识别到目标物,预期目标物信息可以用于侦测该目标物与预期特征的偏离,如预期位置及/或尺寸的偏离。在某些实施例中,当前的目标物特征或者信息可以通过可移动物体所捕获的一个或者多个影像所获知。当前的目标物信息与控制终端所提供的预期目标物信息相比较,以确定两者的偏差。目标物位置的改变可以通过将目标物在影像中的坐标(如目标物的中心点坐标)与预期目标物位置的坐标进行比较得出。目标物尺寸的改变可以将目标物所覆盖的面积(如像素)的尺寸与预设目标物尺寸进行比较得出。在某些实施例中,尺寸的改变可以通过侦测目标物的方向、边界或者其它特征得出。
可以基于所述偏差中至少一部分而产生控制信号(例如通过可移动物体的一个或者多个处理器),根据该控制信号执行大致地校正所述偏差的调整。所述调整可以用于在可移动物体所捕获的影像中,大致的维持一个或者多个预期的目标物特征(如目标物位置或者尺寸)。在某些实施例中,当可移动物体执行用户提供的飞行指令(盘旋或者移动)或者预设的飞行线路时,所述调整可以实时进行。当所述影像设备捕获一个或者多个影像时,所述调整也可以实时进行。在某些实施例中,也可以根据其它数据,如可移动物体上的一个或者多个传感器(例如近程传感器或者GPS传感器)获取的感测数据执行调整。例如,所追踪的目标物的位置信息可以通过近程传感器获得,及/或者由目标物本身所提供(如GPS位置)。所述位置信息除了用于侦测偏差,还可以用于执行所述调整。
所述调整可以是关于所述可移动物体、承载体、及/或者负载(例如影像设备)的。例如,所述调整可以导致所述可移动物体及/或者负载(如影像设备)改变位置、姿态、方向、角速度或者线速度等。所述调整可以导致承载体相对于可移动物体绕着或者沿着一个、两个、三个或者更多的轴移动所述负载(如影像设备)。进一步地,所述调整可以包括调整负载(如影像设备)本身的变焦、焦点或者其它操作参数。
在某些实施例中,所述调整可以至少一部分基于所述偏差的类型所产生。例如,与预期目标物位置的偏差可能需要绕着一个、两个、或者三个旋转轴旋转所述可移动物体及/或者负载(如通过承载体)。又如,与预期目标物尺寸的偏差可能需要可移动物体沿着合适的轴做平移运动,及/或者改变影像设备的焦距(如镜头的拉近或者拉远)。例如,如果当前的或者实际的目标物尺寸小于预期目标物尺寸,可移动物体可能需要靠近目标物,及/或者影像设备可能需要放大目标物。另一方面,如果当前的或者实际的目标物尺寸大于预期目标物尺寸,可移动物体可能需要远离目标物,及/或者影像设备可能需要缩小目标物。
在各种实施例中,所述校正与预期目标物信息的偏差的调整可以通过利用控制信号控制一个或者多个可控制物体实现,所述可控制物体如所述可移动设备、承载体、影像设备或者其中的任意结合。在某些实施例中,可以选择所述可控制物体执行所述调整,以及所述控制信号可以至少一部分基于对所述可控制物体的配置与设置而产生。例如,若影像设备稳固地搭载在可移动物体上而不能够相对于可移动物体运动,则仅仅通过将可移动物体绕着两个轴旋转就能够实现包括绕着对应两个轴旋转的调整。此时,影像设备可以直接搭载在可移动物体上,或者影像设备通过承载体搭载在可移动物体上,所述承载体不允许影像设备与可移动物体之间的相对运动。如果所述承载体允许影像设备相对于可移动物体绕着至少一个轴旋转,对上述两个轴的调整也可以通过结合对可移动物体和承载体的调整来实现。这种情况下,可以控制所述承载体以执行绕着需要调整的两个轴中的一个或者两个轴旋转,以及可以控制所述可移动物体以执行绕着需要调整的两个轴中的一个或者两个轴旋转。例如,所述承载体可以包括一轴云台,以允许影像设备绕着需要调整的两个轴中的一个轴旋转,而可移动物体执行绕着需要调整的两个轴中的另一个轴旋转。可选地,如果承载体允许影像设备相对于可移动物体绕着两个或者更多的轴旋转,则对上述两个轴的调整也可以单独地通过承载体完成。例如,所述承载体包括两轴或者三轴云台。
在其它实施例中,调整以校正目标物的尺寸可以通过控制影像设备的变焦操作(如果影像设备能够达到需要的变焦水平),或者通过控制可移动物体的运动(以靠近或者远离目标物),或者该两种方式的结合来实现。在执行调整时,可移动物体的处理器可以确定选择哪一种方式或者选择该两种方式的结合。例如,如果影像设备不具备达到目标物在影像中维持需要的尺寸所需要的变焦水平,则可以控制可移动物体的移动而取代或者附加在对影像设备的变焦操作。
在某些实施例中,所述调整可以考虑到其它的约束条件。例如,在可移动物体的飞行线路是预设的情况下,所述调整可以通过承载体及/或者影像设备来执行,而不影响到可移动物体的运动。例如,如果远程终端正通过控制终端自主地控制可移动物体的飞行,或者如果可移动物体正根据预先存储的飞行线路在飞行(自主地或者半自主地),所述可移动物体的飞行线路可以是预设的。
其它的约束条件可能包括可移动物体、承载体及/或者负载(如影像设备)的旋转角度、角速度及/或者线速度的最大及/或者最小的阈值,操作参数,或其它。所述最大及/或者最小的阈值可以用于显示调整的范围。例如,可移动物体及/或影像设备绕着一特定轴的角速度可能被可移动物体、承载体及/或负载(如影像设备)的最大角速度所限制。又如,可移动物体及/或承载体的线速度可能被可移动物体、承载体及/或负载(如影像设备)的最大线速度所限制。再如,影像设备焦距的调整可能受到特定影像设备的最大及/或最小焦距所限制。在某些实施例中,这样的限制可以是预设,也可以依赖于可移动物体、承载体、及/或负载(如影像设备)的特殊配置。在某些情况下,该配置是可调的(例如通过制造商、管理员或者用户)。
在某些实施例中,所述可移动物体101可以用于提供数据,控制终端112可以用于接收数据,如可移动物体101的传感器获取的感测数据,以及用于指示可移动物体101追踪的一个或者多个目标物的特征的追踪数据或信息。所述感测数据可以包括可移动物体101所搭载的影像设备所捕获的影像数据,或者其它传感器所感测的数据。例如,来自于可移动物体101及/或者负载101(如影像设备)的实时或者接近实时的视频流可以传送给控制终端112。所述感测数据也可以包括全球定位系统(GPS)传感器、运动传感器、惯性传感器、近程传感器或者其它传感器获得的数据。所述追踪数据包括目标物在可移动物体接收的影像帧中的相对的或者绝对的坐标或者尺寸,目标物在连续的影像帧中的变化,GPS坐标,或者目标物的其它位置信息。在某些实施例中,所述控制终端112可以利用所述追踪数据显示所追踪的目标物(例如,通过一个图形化的追踪指示标识,如用一个围绕目标物周围的方框)。在各种实施例中,控制终端接收的数据可以是未处理的数据(各传感器获取的未处理的感测数据)及/或者处理后的数据(例如可移动物体的一个或者多个处理器所处理得到的追踪数据)。
在某些实施例中,所述控制终端112所处的位置可以远离所述可移动物体101、承载体102及/或者负载104。所述控制终端112可以放置或者粘贴在一个支撑平台上。或者,所述控制终端112可以是手持式的或者穿戴式设备。例如,所述控制终端112可以包括智能手机、平板电脑、笔记本电脑、计算机、眼镜、手套、头盔、麦克风或者任何适合的结合。
所述控制终端112用于通过显示设备显示从可移动物体101接收的显示数据。所述显示数据包括感测数据,例如可移动物体101所搭载的影像设备所获取的影像。所述显示数据还包括追踪信息,所述追踪信息与影像数据分开显示或者叠加在影像数据的顶部。例如,所述显示设备可以用于显示影像,在该影像中的目标物被追踪指示标识所指示或者突出显示。其中,所述追踪指示标识可以是利用方框、圆圈、或者其它几何图形包围所追踪的目标物。在某些实施例中,当影像和追踪数据从所述可移动物体接收,及/或者当影像数据获取的时候,所述影像和追踪指示标识就可以实时地显示出来。在某些实施例中,所述显示可以是有延迟的。
所述控制终端112可以用于接收用户通过输入设备的输入。所述输入设备可以包括操纵杆、键盘、鼠标、触控笔、麦克风、影像或者运动传感器,惯性传感器等。任何合适的用户输入都可以与终端交互,例如人工输入指令,声音控制、手势控制或者位置控制(如通过终端的运动、位置或者倾斜)。例如,控制终端112可以用于允许用户通过操作操纵杆、改变控制终端的方向或者姿态、利用键盘、鼠标、手指或者触控笔与图形用户界面交互,或者利用其它方法,控制可移动物体、承载体、负载或者其中任何结合的状态。
所述控制终端112也可以用于允许用户利用任何合适的方法输入目标物信息。在某些实施例中,所述控制终端112能够使用户从所显示的一个或者多个影像(如视频或者快照)中直接选择目标物。例如,用户可以用手指直接触摸屏幕选择目标物,或者利用鼠标或操纵杆选择。用户可以划线包围所述目标物、在影像上触摸该目标物或者选择该目标物。计算机视觉或者其它技术可用于识别目标物的边界。一次可以选择一个或者多个目标物。在某些实施例中,所选择的目标物可以用选择指示标识显示,以指示用户已经选择了所要追踪的目标物。在某些其它的实施例中,控制终端可以允许用户选择或者输入目标物信息,如颜色、纹理、形状、维度、或者所希望的目标物的其它特征。例如,用户可以输入目标物类型信息,通过图形用户界面选择这样的信息,或者使用其它的方法。在某些其它的实施例中,所述目标物信息可以从一些数据源获取而非从用户获取,所述数据源如远程的或者本地的数据存储单元、与控制终端连接或者通信的其它计算设备等。
在某些实施例中,所述控制终端可以允许用户在人工追踪模式和自动追踪模式之间进行选择。当选择了人工追踪模式,用户需要指定需要追踪的特定目标物。例如,用户可以从控制终端所显示的影像中手动的选择目标物。将所选择的目标物的特定目标物信息(坐标或者尺寸)提供给可移动物体作为目标物的初始目标物信息。另一方面,当选择了自动追踪模式,用户不需要指定需要追踪的特定目标物。用户可以,例如,通过控制终端提供的用户界面,指定关于所要追踪的目标物类型的描述性信息。可移动物体利用所述特定目标物的初始目标物信息或者目标物类型的描述性信息自动识别所要追踪的影像,随后追踪该识别的影像。
一般来说,提供特定的目标物信息(如初始目标物信息)需要更多目标物追踪的用户控制以及较少自动处理或者计算(影像或者目标物识别),所述自动处理或者计算通过设置在可移动物体上的处理系统执行。另一方面,提供目标物类型的描述性信息需要较少的目标物追踪的用户控制,但是需要较多设置在可移动物体上的处理系统所执行的计算。在追踪过程中用户控制以及处理系统控制的合理分配可以根据各种因素调整,例如可移动物体的环境、可移动物体的速度或者姿态、用户偏好、或者可移动物体之内或者外围的计算能力(如CPU或者存储器)等。例如,当可移动物体在相对复杂的环境中(如有很多的建筑物、障碍物或者在室内)飞行时,会比可移动物体在相对简单的环境(开放的空间或者户外)飞行分配相对多的用户控制。在另一个实施例中,当可移动物体在海拔较低的位置飞行时会比在海拔较高的位置飞行时分配相对多的用户控制。另一个实施例中,当可移动物体配备了高速处理器以能够更快地执行复杂计算时,会分配可移动物体更多的自控。在某些实施例中,在追踪过程中,用户控制以及可移动物体的自控的分配可以根据上述描述的因素而动态调整。
至少一部分的用户输入可以产生控制数据。所述控制数据可以由控制终端、可移动物体、第三设备或者其中任意的结合所产生。例如,用户操作一个操纵杆或控制终端,或者与图形用户界面的交互都可以转换为预设的控制指令,以改变可移动物体、承载体或者负载的状态或者参数。在另一个实施例中,用户在终端所显示的影像中执行的目标物选择可以产生所需追踪的初始及/或者预期目标物信息,例如目标物的初始及/或者预期位置及/或者尺寸。可选地或者额外的,所述控制数据可以根据非用户操作的信息所产生,例如,远程的或者本地的数据存储单元,或者与控制终端连接的其它的计算设备等。
图2是本发明较佳实施例中追踪系统的各部件之间影像相关的流程200。在某些实施例中,影像相关的数据包括未处理或者经过处理的影像数据,以及从影像数据中提取或者衍生的数据,如目标物的追踪信息。如图所示,未处理的影像数据是由影像传感器204所获得。所述影像传感器204可以将光信号转换为电信号。所述影像传感器204包括半导体电耦合器件(charge-coupled devices,CCD),使用互补型金属氧化物半导体(complementarymetal-oxide-semiconductor,CMOS),或者N型金属-氧化物-半导体(N-type metal-oxide-semiconductor,NMOS,Live MOS),或者其它类型的传感器。所述影像传感器可以连接在可移动物体,如无人飞行器上。例如,所述影像传感器可以是无人飞行器所搭载的影像设备(如相机)的一部分,所述影像设备可以通过承载体搭载在无人飞行器上,所述影像设备也可以不通过承载体搭载在无人飞行器上。所述影像传感器及/或者影像设备可以用于捕获影像、视频、或者其它具有某些参数的影像数据,所述参数包括宽度、高度、长宽比、百万像素、分辨率或者品质等。例如,所述影像设备可以用于捕获高清或者超高清的视频(例如,720p,1080i,1080p,1440p,2000p,2160p,2540p,4320p等)。
影像传感器204捕获的影像数据可以存储到数据存储设备202中。所述数据存储设备202可以基于半导体、磁、光学或者任何适合的技术,及所述影像存储设备202可以包括闪存、USB驱动、存储卡、固态驱动、硬盘驱动、软盘、光盘、磁盘等。例如,所述数据存储设备202包括可移动存储设备,该可移动存储设备能够可拆卸的连接在影像设备上,如任何适合格式的存储卡,如个人计算机卡、微型快擦写存储卡、SM卡、Memory Stick记忆棒、MemoryStick Duo记忆棒、Memory Stick PRO Duo记忆棒、迷你记忆卡、多媒体记忆卡、微型多媒体记忆卡、MMCmicro卡、PS2卡、SD卡、SxS记忆卡、UFS卡、微型SD卡、MicroSD卡、xD卡、iStick卡、串行闪存模块、NT卡、XQD卡等。所述数据存储设备202也可以包括外置的硬盘驱动、光盘驱动、磁盘驱动、软盘驱动或者其它任何与影像设备连接的适合的存储设备。
所述影像传感器204捕获的影像可以通过影像传送模块206传送给控制终端212。在某些实施例中,该影像数据在影像传送模块206传送之前可以被压缩或者经过其它处理。在其它实施例中,影像数据在传送之前也可以不经过压缩或者其它处理。所传送的影像数据可以显示在控制终端212上,以便操作用户终端的用户可以看到该影像数据及/或基于该影像数据与控制终端212交互。
所述影像传感器204捕获的影像数据可以由预处理单元208进行预处理。所述预处理单元208可以包括硬件、软件或者两者的结合。所述预处理单元208可以包括现场可编程门阵列(Field-Programmable Gate Array,FPGA)。所述预处理单元208可以连接在影像传感器204上,以在影像数据执行处理之前对未处理的影像数据执行预处理,以提取出特定的信息。所述预处理单元208执行的任务包括重新采样以确保坐标系统的正确性,杂点去除、增强对比度、尺度空间表示等。
所述预处理单元208处理的影像数据可以由与预处理单元208连接(如通过通用存储器控制器连接)的处理单元210进一步处理。所述处理单元210可以包括一个或者多个ARM处理器。所述处理单元210用于执行本案描述的各实施例。所述处理单元210执行的任务包括任何复杂程度的特征提取、影像分割、数据验证、影像识别、影像寄存、影像匹配等。在某些实施例中,所述处理单元210可以产生可移动物体所追踪的目标物的追踪信息。所述追踪信息可以通过可移动物体的处理单元执行影像处理所产生,及/或者基于控制终端提供的目标物信息所产生。所述追踪信息包括,例如,影像中目标物的位置、尺寸、或其它特征。
所述处理单元210确定的追踪信息可以通过通讯模块传送给控制终端212。在某些实施例中,所述通讯模块可以与上述的影像传送模块206彼此分开。其它实施例中,所述通讯模块也可以包括所述影像传送模块206,或者所述影像传送模块206包括所述通讯模块。通讯模块及影像传送模块206可以采用任何适合的通讯手段,如,无线通讯或者有线通讯。例如,所述通讯模块及/或者影像传送模块206可以通过局域网络、广域网络、红外、无线电波、WiFi、P2P网络、电信网络、云通讯等的一种或者多种进行通讯。可选地,通讯也可以利用中继站,如信号塔、卫星或者移动基站。无线通讯可以是近程通讯也可以是非近程通讯。在某些实施例中,通讯时可以要求视线距离(line-of-sight)也可以不要求视线距离。除了追踪信息,通讯模块也可以用于传送或者接收可移动物体上其它传感器的感应数据,根据感应数据得到的位置及/或者运动数据,预设的控制数据,远程终端的指令等。
在某些实施例中,所述影像传送模块206提供的影像数据可以增强或者与处理单元210产生的追踪信息相结合,以利用追踪指示标识(例如包围目标物一个圆或者方框)显示所述目标物。用户可以通过该影像数据看到影像设备所追踪的目标物。用户也可以基于该影像数据与控制终端交互。用户可以从该影像数据中选择所要追踪的不同的目标物(通过触摸触摸屏上该不同目标物中对应的位置)。
在某些实施例中,根据控制终端212的要求,所述追踪信息可以提供给控制终端212。例如,只有当用户选择了一个特定的查看模式(如预先查看模式),在该模式下所追踪的目标物会加强显示或者以其它的指示方法显示,则控制终端212可能要求这样的追踪信息。可选地或者附加地,不需要控制终端212的要求,所述追踪信息也会提供给控制终端212。例如,所述追踪信息可以以预设周期(每0.1秒,0.2秒,0.5秒,1秒或者2秒)推送给控制终端212。
图3是本发明追踪系统较佳实施例中各部件之间的控制数据的流程示意图300。如上所述,所述控制数据包括可移动物体(如无人飞行器)所追踪的目标物的目标物信息,以及控制可移动物体或者其它部件的各个方面的其它数据。所述控制数据可以通过用户302与一个控制终端304的交互产生。所产生的控制数据可以包括特定的目标物信息(如初始目标物信息)306以及目标物的类型信息308。
所述特定的目标物信息306可以包括特定目标物的特征,如坐标(像素坐标)、尺寸等。在某些实施例中,当用户通过控制终端304提供的用户界面选择或者指定了要追踪的特定的目标物时,所述特定的目标物信息随之产生。例如,所述控制终端可以允许用户选择人工追踪模式以及自动追踪模式。当选择了人工追踪模式,用户可以指定要追踪的特定的目标物(例如,从所显示的一个或者多个影像中选择目标物)。特定的目标物信息可以基于用户的该选择而产生。
所述目标物的类型信息308可以包括描述所追踪的一类目标物类型的信息,而不是特定目标物的信息。所述目标物类型信息可以包括目标物的各方面的特征,如颜色、纹理、样式、尺寸、形状、维度等。在某些实施例中,所述目标物信息(包括特定的目标物信息以及目标物的类型信息)可以至少一部分是基于用户在控制终端304的输入所产生。例如,所述控制终端可以允许用户在人工追踪模式和自动追踪模式之间进行选择。当选择了自动追踪模式,用户可以输入或者选择目标物的类型信息。可选地或者附加地,所述目标物信息可以通过从其它来源得到的数据而产生。例如,目标物的类型信息可以来自于本地或者远程数据储存设备中存储的数据或者来自于以前的影像。在某些实施例中,预定义的目标物类型或者样式可以代表用户的选择。在某些其它实施例中,所述预定义的目标物类型或者样式可以以默认的方式自动提供给可移动物体而不需用户参与。
可选地,目标物信息包括预期目标物信息。所述预期目标物信息可以与所述初始目标物信息有所重叠也可以没有重叠。
所述目标物信息(包括特定的目标物信息306以及目标物的类型信息308)可以提供给处理系统310,例如,通过传送模块(未图示)。所述处理系统310可以装载在可移动物体上(如无人飞行器)。所述处理系统310包括数据处理单元312以及指令控制单元314。所述数据处理单元312可以用于执行本案描述的任何操作。例如,所述数据处理单元312可以用于基于目标物信息(包括特定的目标物信息306及/或目标物的类型信息308)识别目标物,确定目标物信息的偏差等。所述数据处理单元312可以包括预处理单元及/或者处理单元,如图2中描述的预处理单元208及处理单元210。例如,所述数据处理单元312可以包括现场可编程门阵列(EPGA)处理器或者一个或多个ARM处理器。
所述数据处理单元312可以连接至用于控制可移动物体状态的指令控制单元314。所述指令控制单元314可以用于执行本案所描述的任何操作。例如,所述指令控制单元314可以用于产生控制指令或者信号316,以控制可移动物体的部件,以基于数据处理单元312的处理结果追踪目标物。
所述控制指令316可以包括用于控制所述可移动物体的动力机构的指令,以调整可移动物体相对多达六个自由度的空间配置(spatial disposition)、速度及/或加速度,以校正目标物在一个或者多个影像中的位置或者尺寸的偏差,所述控制指令316也可以包括用于调整承载体状态的指令,以调整可移动物体上由该承载体所搭载的负载(如影像设备)的空间配置、速度及/或加速度。
所述控制指令316也可以包括用于调整承载体状态的指令,以调整可移动物体上由该承载体所搭载的负载(如影像设备)的空间配置、速度及/或加速度。
所述控制指令316也可以包括调整负载的一个或者多个操作参数,所述操作参数如捕获静止或者动态的图片,变焦,开启或关闭,切换成像模式,改变影像分辨率,变焦,改变景深,改变曝光时间,改变镜头速度,改变可视角度等。
可选地或者附加地,上述任何的控制指令都可以直接由控制终端304提供给处理系统310。例如,用户可以利用控制终端304控制影像设备的变焦操作,而处理单元310产生控制指令给可移动物体及/或者承载体。又如,用户可以直接控制可移动物体,而处理单元310产生控制指令给可移动物体及/或者承载体。这样使得用户可以专注于控制可移动物体的飞行,而不用担心目标物体的追踪。目标物体的追踪由处理系统310自动执行。
在各种实施例中,在追踪控制时,用户控制以及自动追踪系统的分配可以根据各种因素调整,例如可移动物体的环境、可移动物体的速度或者姿态、用户偏好、或者可移动物体之内或者外围的计算能力(如CPU或者存储器)等。例如,当可移动物体在相对复杂的环境中(如有很多的建筑物、障碍物或者在室内)飞行时,会比可移动物体在相对简单的环境(开放的空间或者户外)飞行会分配相对多的用户控制。在另一个实施例中,当可移动物体在海拔较低的位置飞行时会比在海拔较高的位置飞行时分配相对多的用户控制。另一个实施例中,当可移动物体配备了高速处理器以能够更快地执行复杂计算时,会分配可移动物体更多的自控。在某些实施例中,在追踪过程中,用户控制以及可移动物体的自控的分配可以根据上述描述的因素而动态调整。
本发明提供利用连接在可移动物体上的影像设备追踪目标物的系统及方法,以维持目标物在影像设备所捕获的一个或者多个影像中的位置及/或者尺寸。
图4是本发明执行目标物追踪的较佳实施例的方法400的流程图。所述方法400的各步骤通过可移动物体,如无人飞行器搭载的或者外围的一个或者多个处理器所执行。所述方法400的一些或者全部步骤是在一个或者多个配置有可执行指令的计算机/控制系统的控制下所执行,并且以代码(如可执行指令,一个或者多个程序或者应用)的形式,由一个或者多个处理器所执行。所述代码,以能够被一个或者多个处理器所执行的计算机程序的形式存储在计算机可读的存储介质中。所述计算机可读的存储介质可以是非易失性的。下述描述的步骤的顺序并不是限制性的,所描述的各步骤可以以任何顺序或者平行执行。
所述方法400包括获取步骤402,获取一个或者多个目标物的目标物信息。所述目标物信息可以从控制终端接收。附加地或者可选地,所述目标物信息可以从可移动物体(如无人飞行器)的部件,或者可移动物体的远程设备,如另一个可移动物体,服务器等处获取。在某些实施例中,所述目标物信息也可以由目标物本身所提供。
在某些实施例中,所述目标物信息可以包括特殊的、已知的指定目标物的初始目标物信息,或者潜在的、未知的一类目标物的目标物类型信息。所述指定的目标物信息包括一个或者多个影像中的目标物的坐标(如像素坐标)、尺寸、位置、其它信息。所述指定目标物信息可以通过用户与现存的影像数据的交互所产生。例如,当用户在显示给用户的一个或者多个影像中选择特殊的物体作为目标物时,就会产生所述指定目标物信息。所述指定目标物信息可以包括当远程终端从一个或者多个影像中选择所述目标物时,该目标物的初始位置及/或尺寸。
所述目标物信息也可以包括目标物的类型信息,如一组或者一类潜在的、未知的目标物的颜色、纹理、维度、尺寸、位置及/或其它特征。目标物类型信息可以是由用户输入的。可选地,所述用户可以选择以前存在的目标物样式或者类型(如黑色的物体,或者半径大于、小于或者等于某个值的圆形物体)。在某些实施例中,用户可以通过在一个或者多个影像中选择一个或者多个目标物以提供所述目标物类型信息。所选择的目标物的特征可以被提取以产生所述目标物类型信息,以识别具有相似特征的其它目标物。在各个实施例中,所述特征提取可以由控制终端所执行,或者由可移动物体或者第三设备的处理单元所执行。
可选地,目标物信息(包括特定的目标物信息以及目标物的类型信息)包括所识别的目标物在被追踪时应该维持的预期特征。例如,所述目标物信息包括目标物在影像中的预期位置,该位置由绝对或者相对坐标所表示。所述追踪系统用于追踪该目标物,以使该目标物,在预设误差内,一段时间内维持在相同的位置。可选地或者附加地,所述目标物信息包括目标物在影像中的预期尺寸,该尺寸由目标物所占的像素数表示。所述追踪系统用于追踪该目标物,以使该目标物,在预设误差内,一段时间内保持具有相同的尺寸。对于指定的目标物,所述预期目标物信息可以与初始目标物信息相同也可以不同。所述初始目标物信息用于识别目标物。一旦目标物被识别,预期目标物信息用于侦测目标物与预期目标物信息的偏差,以使该偏差能够被校正。在某些实施例中,所述目标物信息也可以包括其它值,如时间值或者期限值,以指示所识别的目标物需要追踪的时间段。所述目标物信息还可以包括标识,以表示所述目标物信息是否包括指定的目标物信息或者目标物类型信息等。
在某些实施例中,所述目标物需要维持的预期的目标物信息可以由控制终端所提供。例如,所述预期的目标物信息可以基于用户在控制终端的输入,或者基于配置文件或者控制终端的本地或远程数据存储单元所产生。在某些实施例中,所述预期的目标物信息可以是由可移动物体所提供。例如,可移动物体可以被配置或者默认地,使目标物维持在影像大致中心的位置,或者在影像中特定坐标处的周围。又如,可移动物体可以被配置或者默认地,使目标物在影像设备所捕获的影像中维持特定的尺寸。在其它实施例中,所述预期的目标物信息可以由可移动物体外围的其它物体或者设备所提供。
一旦接收了目标物信息,方法400包括识别步骤404,以根据该目标物信息,如基于目标物类型信息,识别目标物。所述识别可以采用任何合适的影像识别技术,包括基于CAD模型(CAD-like)的物体识别方法(边缘侦测(edge detection),基本要素(primalsketch),Marr、Mohan-Nevatia、Lowe、及Olivier Faugeras识别),基于外表(apprearance-based)的识别方法(如边缘匹配(edge matching),divide-conquer搜索算法,灰度值匹配(greyscale matching),倾斜度匹配(gradient matching),感受域直方图(historgramsof receptive field response)、或者大模型(large model bases)等),基于特征(feature-based)的识别方法(如解释树(interpretation tree),假定及测试(hypothesizing-testing),姿势一致(pose consistency),姿势聚类(pose clustering),恒常性(invariance),几何散列法(geometric hashing),尺度不变特征转换(Scale-invariant feature transform,SIFT),基于快速鲁棒性特征(speeded up robustfeature,SURF),基因演算法(genetic algorithms)等。
一旦目标物识别之后,影像设备捕获的影像可以用于监视以执行侦测步骤406,侦测目标物需要维持的某种预期属性的偏差,所述预期属性包括预期位置及/或者尺寸。如上所描述的,所述预期目标物信息可以由控制终端(如基于用户的输入)所提供。所述预期目标物信息也可以由与可移动物体关联的配置文件或者储存设备,或者其它的资源所提供。所述预期目标物信息与初始目标物信息可以相同也可以不相同。所述目标物的偏离可以通过将目标物在影像中的当前位置、尺寸及/或者其它属性与预期属性相比较得到。这里可以用到任何适用的影像识别技术。
在某些实施例中,当侦测到的偏差在预设的允许范围内时,可以认为大致维持了所述预期目标物信息。在这种情况下,所述偏差是可以忽略的,因此,不需要任何的校正调整。只有当偏差超过了所述预设的允许范围时,才需要校正调整。例如,目标物当前的位置与预期坐标处只相差几个像素,该偏差可以忽略,因此不需要调整校正。相似地,当目标物当前的尺寸与预期尺寸只相差几个像素,则该偏差可以忽略。所述预设的允许偏差可以根据系统参数所设置,也可以通过用户操作控制终端所设置,或者采用其它的方法设置。
为了校正偏差,维持目标物的预期属性,执行控制指令或者信号产生步骤408,以调整可移动物体、承载体及/或者影像设备。在某些实施例中,目标物的位置偏差可以通过改变可移动物体及/或者影像设备(通过承载体)的姿态来调整,详细方案将在图6中介绍。例如,该调整包括改变可移动物体及/或影像设备绕着一个或者多个旋转轴的角速度。目标物的尺寸偏差可以通过改变可移动物体的位置及/或影像设备的操作参数来调整,详细方案将在图7中介绍。例如,该调整包括改变可移动物体沿着一个轴的线速度。可选地或者附加地,该调整可以包括改变影像设备的焦点、焦距或者其它属性。
在某些实施例中,所述调整可以受到系统配置的约束条件、用户对控制终端的操作或者其它事项所限制。所述约束条件可以包括可移动物体(如其致动系统)、承载体(如其致动部件)、影像设备等的旋转角度、线速度及/或角速度等的最大值/最小值的限制。可以用阈值来限制调整的范围。如,可移动物体及/或者影像设备相对于可移动物体(通过承载体)绕着特定轴的角速度可能受到可移动物体及/或者承载体允许的最大角速度值的限制。又如,可移动物体及/或者影像设备相对于可移动物体(通过承载体)的线速度可能受到可移动物体及/或者承载体允许的最大线速度值的限制。在某些实施例中,这样的限制条件可以是预设的并且依赖于可移动物体、承载体及/或影像设备的特殊配置。在某些实施例中,所述限制条件是可以修改的(如通过制造商,管理员或者用户)。
在某些实施例中,当根据上述描述的限制条件(如移动物体及/或者影像设备相对于可移动物体(通过承载体)绕着特定轴的角速度可能受到可移动物体及/或者承载体允许的最大角速度值的限制)对所述调整进行修改时,可以提供警告指示。所述警告指示可以是文本的、语音的(警报器或者蜂鸣声)、可视的(如某种颜色的灯或者闪烁的灯)、动力的(震动或者运动)、或者其它任何适合类型的信号。所述警告指示可以由可移动物体或者其部件所提供。可选地或者附加的,所述警告指示可以控制终端(如通过显示设备)所提供。在其它实施例中,所述控制终端可以根据可移动物体发送的信号发出警告指示。
在某些实施例中,当可移动物体在执行用户提供的飞行指令或者在预设飞行路线上飞行,及/或者影像设备捕获一个或者多个影像时,所述调整可以几乎实时地执行。在某些实施例中,所述调整可以是基于其它信息所执行,如可移动物体所搭载的一个或者多个传感器(近程传感器或者GPS传感器)获取的感应数据。例如。所追踪的目标物的位置信息可以由一个近程传感器或者目标物本身(GPS位置)所提供。除了侦测偏差,该位置信息还用于产生调整控制信号以追踪目标物。
在各种实施例中,执行侦测步骤406以侦测与预期目标物信息的偏差,及/或者执行生成步骤408以生成控制指令,从而校正所侦测到的偏差。该侦测步骤406及/或生成步骤408可以在预设的或者不确定的时间段之后重复执行。某些实施例中,所述侦测步骤406及/或生成步骤408可以每隔一个时间间隔(每0.0.秒、0.1秒、0.2秒、0.5秒或者1秒)重复执行。
图5是本发明实施例中可移动物体、承载体、及负载的配置图500。所述配置500的示例演示了对追踪目标物的可移动物体502及/或负载506进行的调整。所述可移动物体502及负载506可以包括上述描述的各实施例中的任何部件。例如,所述可移动物体502可以包括无人飞行器,及所述负载506可以包括影像设备。
所述可移动物体205能够绕着多达三个正交轴旋转,例如X1(俯仰)轴510、Y1(航向)508轴及Z1(滚转)轴512。所述绕着三个轴旋转可以指的是俯仰旋转522、航向旋转520及滚转旋转524。可移动物体502绕着X1轴、Y1轴、Z1轴的角速度可以表示为ωx1、ωY1、ωZ1。可移动物体502能够沿着X1轴、Y1轴、Z1轴平移执行运动528、526及530。可移动物体502沿着X1轴、Y1轴、Z1轴的线速度可以分别表示为Vx1、VY1、VZ1。
在所示例的配置中,负载506通过承载体504搭载在可移动物体502上。所述承载体504能够使负载506相对于可移动物体502绕着及/或者沿着多达三个正交轴,如X2(俯仰)轴516、Y2(航向)轴514及Z2(滚转)轴518运动。所述X2轴、Y2轴及Z2轴可以分别平行于X1轴、Y1轴及Z1轴。在某些实施例中,负载是包括光学模块507的影像设备,滚转轴Z2轴518可以大致平行于光学模块507的光路径及光学轴。所述光学模块507可以与影像传感器连接,以捕获影像。承载体504可以根据与承载体相连接的致动器,如电机发出控制信号,使承载体504绕着多达三个正交轴,如X2(俯仰)轴516、Y2(航向)轴514及Z2(滚转)轴518旋转。绕着三个轴的旋转可以分别指俯仰旋转534,航向旋转532及滚转旋转536。负载506绕着X2轴、Y2轴及Z2轴的角速度可以分别表示为为ωx2、ωY2、ωZ2。承载体504可以使负载506相对于可移动物体502沿着X2轴、Y2轴及Z2轴做平移运动540、538及542。负载506沿着X2轴、Y2轴、Z2轴的线速度可以分别表示为Vx2、VY2、VZ2。
在某些实施例中,所述承载体504可以只允许负载506相对于可移动物体502绕着及/或者沿着三个轴X2轴、Y2轴、Z2轴的子集运动。例如,承载体504可以只允许负载506绕着X2轴、Y2轴、Z2轴或者其中任意轴的结合旋转运动,而不允许负载506沿着任何轴平移运动。例如,承载体504可以允许负载506只绕着X2轴、Y2轴及Z2轴中的其中一个轴旋转。承载体504可以允许负载506只绕着X2轴、Y2轴及Z2轴中的其中两个轴旋转。承载体504可以允许负载506绕着X2轴、Y2轴及Z2轴中的其中三个轴旋转。
在某些实施例中,所述承载体504可以只允许负载506沿着X2轴、Y2轴及Z2轴或者其中任意轴的结合平移运动,而不允许负载506绕着任何轴旋转运动。例如,承载体504可以允许负载506只沿着X2轴、Y2轴及Z2轴中的其中一个轴运动。承载体504可以允许负载506只沿着X2轴、Y2轴及Z2轴中的其中两个轴运动。承载体504可以允许负载506沿着X2轴、Y2轴及Z2轴中的其中三个轴运动。
在某些实施例中,所述承载体504可以允许负载506相对于可移动物体执行旋转运动及平移运动。例如,承载体504可以允许负载506沿着及/或者绕着X2轴、Y2轴及Z2轴中的其中一个轴、两个轴或者三个轴运动。
在某些实施例中,所述负载506可以直接搭载在可移动物体502上而不需要承载体504,或者承载体504不允许负载506相对于可移动物体运动。在这种情况下,负载506的姿态、位置及/或者方向相对于可移动物体502是固定的。
在各个实施例中,负载506的姿态、方向及/或位置的调整可以,单独地或者共同地,通过对可移动物体502、承载体504及/或负载506的适度调整实现。例如,负载506绕着指定轴(如航向轴)旋转60度可以通过如下方法实现:可移动物体单独旋转60度、通过承载体致动使负载相对于可移动物体旋转60度、可移动物体旋转40度同时负载相对于可移动物体旋转20度。
相似地,负载的平移运动可以,单独地或者结合的,通过对可移动物体502及承载体504的适度调整实现。附加地或者可选地,所述调整可以通过对负载的操作参数的调整来完成。所述负载的操作参数可以包括,如影像设备的变焦程度或者焦距。
图6是本发明实施例中维持目标物的预期位置的追踪方法的示意图。图6显示了影像600,该影像可以是可移动物体所搭载的影像设备所捕获。假设影像600的宽度是W像素,高是H像素(其中W和H都是正整数)。影像中的任一位置可以由水平轴601(沿着影像的宽度方向)以及竖直轴603(沿着影像的高度方向)的一对坐标所指示,其中,影像左上角的坐标为(0,0)以及右下角的坐标为(W,H)。
假设影像600所捕获到的目标物位于位置P(u,v)602,而目标物的预期位置是P0(u0,v0)604,其与位置P602不同。在某些实施例中,所述目标物的预期位置P0(u0,v0)可能是靠近影像中心的位置,于是u0=W/2,及/或v0=H/2。在其它实施例中,目标物预期位置可以是影像中的任何位置(如偏离中心的位置)。在各种实施例中,目标物预期位置与目标物初始位置(如控制终端所提供的)可以相同也可以不相同。假设当前的位置P与预期的位置P0有一个偏差,且该偏差超过了预设阈值(与u0的偏差可以表示为Δx,与v0的偏差可以表示为Δy),因此需要调整,以使目标物的位置从P点移动到接近预期位置P0处。
在某些实施例中,与预期目标物位置的偏差可以用于计算一个或者多个角速度,以绕着一个或者多个轴旋转影像设备的视场。例如,沿着影像中水平轴601的偏差(例如,位于u与u0之间),用于计算一个角速度ωY 610,以绕着Y轴(航向轴)606旋转所述影像设备的视场。所述ωY可以通过如下公式计算:
ωY=α*(u-u0),其中,α∈R(实数)(1)。
所述影像设备的视场绕着Y轴的旋转可以通过可移动物体的旋转、负载相对于可移动物体的旋转(通过承载体)、或者两者的结合所实现。在某些实施例中,当对可移动物体的调整是不可行的,或者是不希望的,如可移动物体的飞行线路是预设,此时,需要选择调整负载。在公式(1)中,α是常数,可以预设及/或者可以是校准值,所述校准是基于可移动物体的配置(如旋转操作是由可移动物体所执行)、承载体的配置(如旋转操作是由承载体所执行)、或者两者的结合(如旋转操作是由可移动物体及承载体共同执行)。在某些实施例中,α大于0(α>0),在其它实施例中,α可能不大于0(α≤0)。在某些实施例中,α可以用于将计算得到的像素值映射到对应的操纵量以及灵敏度,以控制绕着特定轴(如航向轴)的角速度。一般来说,操纵杆可以用于控制可控制物体(如无人飞行器或者承载体)的角运动及线运行。较多的操纵量对应较高的灵敏度及较快的速度(如线运动或者角运动)。在某些实施例中,操纵量或者范围可以根据无人飞行器的飞行控制系统的配置文件或者承载体的控制系统的配置参数所确定。操纵量范围的最大值及最小值可以是任意的值,例如对于一个飞行控制系统,其操纵量范围可以是(1000,-1000),对于另一个飞行控制系统,其操纵量范围可以是(-1000,1000)。
例如,假设影像的宽度为W=1024个像素,高度为H=768个像素值。因此,该影像的尺寸为1024*768。进一步假设,目标物的预期位置中u0=512。因此,(u-u0)∈(-512,512)。假设绕航向轴的操纵量范围是(1000,-1000),则最大的操纵量值或者最大的灵敏度为1000,及α=1000/512。因此,α的值可以受到影像分辨率、影像的尺寸、操纵杆的数量范围(绕着某一特定的旋转轴)、最大的操纵量值或者最大的灵敏度、及/或其它因素的影响。
例如,当所述旋转是由可移动物体的旋转所实现时,图6中的Y轴606对应图5中演示的可移动物体的Y1轴508,以及视场的总角速度ωY可以表示为可移动物体的角速度ωY1:
ωY=ωY1=α1*(u-u0),其中,α1∈R (2)。
在公式(2)中,α1是基于可移动物体的配置所定义的常数。在某些实施例中,α1大于0(α1>0)。α1可以与上述讨论的α相似。例如,α1的值可以基于影像分辨率或尺寸及/或可移动物体的操纵量范围(如绕着航向轴)所定义。
相似地,当所述旋转是通过负载相对于可移动物体(如通过负载)实现的,则图6中的Y轴606对应图5中演示的负载的Y2轴514,以及视场的总角速度ωY可以表示为负载相对于可移动物体的角速度ωY2:
ωY=ωY2=α2*(u-u0),其中,α2∈R (3)。
在公式(3)中,α2是基于承载体及/或负载的配置所定义的常数。在某些实施例中,α2大于0(α2>0)。α2可以与上述讨论的α相似。例如,α2的值可以基于影像分辨率或尺寸及/或承载体的操纵量范围(如绕着航向轴)所定义。
一般,视场绕Y(航向)轴的角速度可以表示为可移动物体的角速度ωY1与负载相对于可移动物体的角速度ωY2的结合,如下所述:
ωY=ωY1+ωY2 (4)。
在公式(4)中,ωY1或者ωY2可以是0。
如所演示的,绕着Y(航向)轴旋转的方向可以依赖于符号u-u0。例如,如果所预期的方向在实际方向的右侧(如图6中所演示的),则u-u0<0,所述视场需要绕着航向轴606逆时针旋转(如向左转),以使可移动物体到预期位置。相反地,如果所预期方向在实际方向的左侧,则u-u0>0,所述视场需要绕着航向轴606顺时针旋转(如向右转),以使可移动物体到预期位置。
如所演示的,绕着指定轴(如Y(航向)轴)的旋转速度(角速度的绝对值)可以依赖于目标物沿着该轴的预期位置与实际位置之间的距离(如|u-u0|)。所述距离越远,旋转速度值越大。相同地,所述距离越近,旋转速度值越小。当目标物沿着该轴的预期位置与实际位置相同时(如u=u0),则绕着该轴的旋转速度为零,停止旋转。
如上所述调整实际目标物位置与预期目标物位置沿着水平轴601的偏差的方法同样适用于校正目标物沿着不同的轴603的偏差。例如,沿着影像中竖直轴603的偏差(例如,位于v与v0之间),用于计算角速度ωx612,以绕着X轴(俯仰轴)608旋转所述影像设备的视场。所述ωx可以通过如下公式计算:
ωx=β*(v-v0),其中,β∈R(5)。
所述影像设备的视场绕着X轴的旋转可以通过可移动物体的旋转、负载相对于可移动物体的旋转(通过承载体)、或者两者的结合所实现。因此,在公式(5)中,β是常数,可以预设及/或者可以被校准,所述校准基于可移动物体的配置(如旋转操作是由可移动物体所执行)、承载体的配置(如旋转操作是由承载体所执行)、或者两者的结合(如旋转操作是由可移动物体及承载体共同执行)。在某些实施例中,β大于0(β>0),在其它实施例中,β可能不大于0(β≤0)。在某些实施例中,β可以用于将计算得到的像素值映射到对应的操纵量,以控制绕特定轴(如俯仰轴)的角速度。一般来说,操纵杆可以用于控制可控制物体(如无人飞行器或者承载体)的角运动及线运动。较多的操纵量对应较高的灵敏度及较快的速度(如线运动或者角运动)。在某些实施例中,操纵量或者范围可以根据无人飞行器的飞行控制系统的配置文件或者承载体的控制系统的配置参数所确定。操纵量范围的最大值及最小值可以是任意值,例如对于一个飞行控制系统,其操纵量范围可以是(1000,-1000),对于另一个飞行控制系统,其操纵量范围可以是(-1000,1000)。
例如,假设影像的宽度为W=1024个像素,高度为H=768个像素值。因此,该影像的尺寸为1024*768。进一步假设,目标物的预期位置中v0=384。因此,(v-v0)∈(-384,384)。假设绕俯仰轴的操纵量范围是(-1000,1000),则最大的操纵量值或者最大的灵敏度为1000,及β=1000/384。因此,β的值可以受到影像分辨率、影像的尺寸、操纵杆的数量范围(绕着某一特定的旋转轴)、最大的操纵量值或者最大的灵敏度、及/或其它因素影响。
例如,当所述旋转是由可移动物体的旋转所实现时,图6中的X轴608对应图5中演示的可移动物体的X1轴510,以及视场的总角速度ωx可以表示为可移动物体的角速度ωx1:
ωx=ωx1=β1*(v-v0),其中,β1∈R (6)。
在公式(6)中,β1是基于可移动物体的配置所定义的常数。在某些实施例中,β1大于0(β1>0)。β1可以与上述讨论的α相似。例如,β1的值可以基于影像分辨率或尺寸及/或可移动物体的操纵量范围(如绕着俯仰轴)所定义。
相似地,当所述旋转是通过负载相对于可移动物体(如通过负载)实现的,则图6中的X轴608对应图5中演示的负载的X2轴516,以及视场的角速度ωx可以表示为负载相对于可移动物体的角速度ωx2:
ωx=ωx2=β2*(v-v0),其中,β2∈R (6)。
在公式(6)中,β2是基于承载体及/或负载的配置所定义的常数。在某些实施例中,β2大于0(β2>0)。β2可以与上述讨论的β相似。例如,β2的值可以基于影像分辨率或尺寸及/或承载体的操纵量范围(如绕着俯仰轴)所定义。
一般,视场绕X(俯仰)轴608的角速度可以表示为可移动物体的角速度ωx1与负载相对于可移动物体的角速度ωx2的结合,如下所述,
ωx=ωx1+ωx2 (7)。
在公式(7)中,ωx1或者ωx2可以是0。
如所演示的,绕着X(俯仰)轴旋转的方向可以依赖于符号v-v0。例如,如果预期方向在实际方向的上侧(如图6中所演示的),则u-u0>0,所述视场需要绕着俯仰轴608顺时针旋转(如向下俯看),以使可移动物体到预期位置。相反地,如果预期方向在实际方向的下侧,则u-u0<0,所述视场需要绕着俯仰轴608逆时针旋转(如向上仰),以使可移动物体到预期位置。
如所演示的,旋转速度(角速度的绝对值)可以依赖于目标物沿着指定轴(如X(俯仰)轴)的预期位置与实际的位置之间的距离(如|v-v0|)。所述距离越远,旋转速度值越大。所述距离越近,旋转速度值越小。当目标物沿着该轴的预期位置与实际位置相同时(如v=v0),则绕着该轴的旋转速度为零,停止旋转。
在某些实施例中,计算出来的角速度的值可能会受到限制或者根据本案的各种限制而需要修改。所述限制包括可移动物体及/或影像设备所能达到的最大及/或者最小的速度、可移动物体及/或承载体等的控制系统的操纵量的范围或者最大的操纵量或者最大的灵敏度。例如,旋转速度可能是计算出来的旋转速度与所允许的最大速度两者中的较小值。
在某些实施例中,当所计算出来的角速度根据上述的限制需要修改时,可以提供警告指示。所述警告指示可以是文本的、语音的(警报器或者蜂鸣声)、可视的(如某种颜色的灯或者闪烁的灯)、机械的或者其它任何适合类型的信号。所述警告指示可以由可移动物体、承载体、载荷或者其中的结合所直接提供。可选地或者附加的,所述警告指示可以由控制终端(如通过显示设备)所提供。在后续的实施例中,所述控制终端可以根据可移动物体发送的信号发出警告指示。
图7是本发明实施例中维持目标物的预期尺寸的追踪方法的示意图。图7中显示了影像700,该影像700可以是可移动物体所搭载的影像设备所捕获。假设影像700中捕获到了目标物702。目标物在影像中的实际尺寸可以是s个像素(例如,根据目标物的宽度和高度所计算)。目标物的预期尺寸S可能小于(预期尺寸可以表示为704,且S=s0)或者大于(预期尺寸可以表示为705,且S=s1)所述实际尺寸s。目标物的预期尺寸与目标物的初始尺寸(由控制终端所提供)可以相同也可以不相同。假设当前的尺寸s与预期尺寸s0或者s1有偏差,且偏差值大于预设阈值(如预设Δs个像素),则需要执行调整以使目标物的尺寸接近预期尺寸s0或者s1。
尽管影像的显示区域以及目标物显示为矩形,这只是演示的目的而非限制。在各种实施例中,所述影像的显示区域及/或者目标物可以是任何适用的形状,如圆形、椭圆形、多边形等。相似地,尽管这里描述的面积表示为像素,这也仅仅是演示的目的而非限制。在其它实施例中,所述面积也可以表示为任何合适的单元,如百万像素、mm2、cm2、inch2等。
在某些实施例中,所述目标物的预期尺寸的偏差可以用于计算可移动物体及/或影像设备沿着一个或者多个轴的线速度。例如目标物的实际尺寸s与预期尺寸S(如S=s0或者s1)之间的偏差可以用于计算可移动物体沿着Z(滚转)轴的线速度V,如下:
V=δ*(1-s/S),其中,δ∈R(8)。
在公式(8)中,δ是基于可移动物体或者任何适合的可控制的物体(如承载体)的配置所定义的常数,以使影像设备的视场朝向目标物或者或者远离目标物的方向运动。在某些实施例中,δ大于0(δ>0),在其它实施例中,δ可能不大于0(δ≤0)。在某些实施例中,δ可以用于将计算得到的像素值映射为对应的操纵量以及灵敏度以控制线性速度。
通常,V代表可移动物体朝向或者远离目标物的速度。所述速度的矢量是从无人飞行器指向目标物。如果目标物的实际尺寸s小于预期尺寸S,则V>0,可移动物体朝向目标物运动,以增加影像中所捕获的目标物的尺寸。相反,如果目标物的实际尺寸s大于预期尺寸S,则V<0,可移动物体远离目标物运动,以减小影像中所捕获的目标物的尺寸。
例如,假设影像的宽度为W=1024个像素,高度为H=768个像素值。因此,该影像的尺寸为1024*768。进一步,假设控制线速度的操纵量范围是(-1000,1000)。在一个实施例中,当s/S=3时,δ=-1000,当s/S=1/3时,δ=1000。
在某些实施例中,计算出来的线速度的值可能会受到限制或者根据本案的各种限制而需要修改。所述限制包括可移动物体及/或影像设备所能达到的最大及/或者最小的速度、可移动物体及/或承载体等的控制系统的最大的灵敏度等。例如,可移动物体的速度可能是计算出来的速度与所允许的最大速度两者中的较小值。
可选地或者附加地,所述目标物的实际尺寸与预期尺寸的偏差可以用于调整影像设备的操作参数。所述操作参数如变焦水平、焦距等,用以校正该偏差。当调整可移动物体是不可行的或者不希望的,如当可移动物体的飞行线路是预定的,则可能需要对影像设备进行调整。对所述焦点F的调整可以用如下公式表示:
F=γ*(1-s/S),其中,γ∈R (9)。
在公式(9)中,γ是基于影像设备的配置所定义的常数。在某些实施例中,γ大于0(γ>0),在其它实施例中,γ可能不大于0(γ≤0)。γ的值可以根据镜像设备或者镜头的类型所确定。
如果目标物的实际尺寸s小于预期尺寸S,则F>0。焦距增加|F|,使得影像中所捕获的目标物的尺寸变大。另一方面,如果目标物的实际尺寸s大于预期尺寸S,则F<0。焦距减少|F|,使得影像中所捕获的目标物的尺寸变小。例如,在一个实施例中,γ=10,这意味着,例如,当目标物的实际尺寸是预期尺寸的2倍时,焦距应该对应减少10mm,(如F=10*(1-2/1)=-10),反之亦然。
在某些实施例中,所述影像设备操作参数的调整可以受到限制或者根据本案的各种限制而需要修改。所述限制包括,例如,影像设备所能达到的最大及/或最小的焦距。例如,假设所述焦距范围为(20mm,58mm),进一步假设,初始焦距为40mm。则当s>S时,所述焦距应该根据公式(9)减少。则当s<S时,所述焦距应该根据公式(9)增加。然而,焦距的调整会受到焦距范围的最大值与最小值(如从20mm到58mm)的限制。换句话说,调整的焦距应该不小于焦距的最小值(如20mm),不大于焦距的最大值(如58mm)。
如上述图6中所讨论的,当所计算的调整(如可移动物体的线速度或者焦距)根据上述的限制修改时,会提供警告指示。所述警告指示可以是文本的、语音的(警报器或者蜂鸣声)、可视的(如某种颜色的灯或者闪烁的灯)、机械的或者其它任何适合类型的信号。所述警告指示可以由可移动物体、承载体、负载或者其中的结合所直接提供。可选地或者附加的,所述警告指示可以由控制终端(如通过显示设备)所提供。在后续的实施例中,所述控制终端可以根据可移动物体发送的信号发出警告指示。
根据本发明的其它方面,本发明提供利用搭载在可移动物体上的影像设备追踪目标物的方法及系统,所述可移动物体可以通过飞行指令控制其飞行。
图8是本发明执行目标物追踪的实施例中另一方法800的流程图。所述方法800可以由所描述的可移动物体的一个或者多个处理器所执行。所述可移动物体如无人飞行器。
所述方法800包括接收步骤802,接收用户的飞行指令以及目标物信息,所述飞行指令以及目标物信息可以是,例如,从远程控制终端所接收。所述飞行指令用于控制可移动物体的飞行参数,如可移动物体的位置、速度、方向、或者姿态。在某些实施例中,所述飞行指令可以包括用于使可移动物体执行预存的关于预设飞行线路的飞行指令。所述方法800进一步包括控制步骤804,控制可移动物体根据用户指定或者预先存储的飞行线路飞行。
所述目标物信息包括特定目标物的初始目标物信息(如位置及/或尺寸),所述特定目标物可以是用户通过操作控制终端所选择的,也可以是根据目标物类型信息所选择的,所述目标物类型信息如颜色、纹理、样式、尺寸、形状、维度等。
所述目标物信息也可以包括预期目标物信息(如位置及/或尺寸)。所述预期目标物信息指定所追踪的目标物在影像设备所捕获的影像中所需满足的一些特征。例如,所追踪的目标物在影像设备所捕获的影像中维持预期位置及/或者尺寸。例如,所追踪的目标物的预期位置是在影像中心位置或者偏离影像的中心位置。所追踪的目标物的预期尺寸可以是大概包括一定数量的像素(如初始目标物尺寸)。在各种实施例中,预期目标物信息可以由控制终端提供,也可以不是由控制终端提供。例如,预期目标物信息可以以硬编码的形式记录在可移动物体的处理单元所执行的逻辑电路中,存储在可移动物体本地及/或者远程的数据存储单元中,或者从其它合适的来源获取。
在某些实施例中,所述目标物信息(包括指定的目标物信息及目标物的类型信息)中的至少一部分可以通过控制终端112的用户输入产生。附加地或者可选地,所述目标物信息可以通过其它的来源产生。例如,所述目标物的类型信息可以来自于本地或者远程的数据存储单元中以前的影像或者数据。所述目标物的类型信息可以是用户选择的,也可以是可移动物体所默认提供的。
所述方法800包括调整步骤806,根据所述目标物信息调整可移动物体,承载体及/或影像设备,以根据目标物信息追踪目标物。所述追踪以及其它任何相关的数据处理可以由可移动物体内部的、远程的或者其结合的一个或者多个处理器所执行。在某些实施例中,所述目标物信息可以用于可移动物体识别所需追踪的目标物。目标物的识别可以是基于初始目标物信息,包括特定目标物的明确特征(基于目标物在可移动物体捕获的影像中的坐标)或者包括在目标物信息中的一类目标物的类型信息。
一旦识别到目标物,预期目标物信息(目标物信息的一部分)可以用来侦测目标物预期特征的偏差,所述预期特征如预期位置及/或尺寸。所述偏差可以通过如下方法侦测:比较目标物在可移动物体所捕获的一系列影像中的特征(如位置及/或者尺寸),以确定该特征在某个影像中是否有变化。所述一系列的影像可以是可移动物体在不同时间点捕获的。通过将影像中目标物的中心点坐标与预期目标物位置的坐标相比较,可以侦测到目标物位置的变化。通过将目标物在影像中所占的面积的尺寸与目标物的预期尺寸相比较,可以侦测到目标物尺寸的变化。
基于侦测到的偏差中的至少一部分,自动产生控制信号(如通过可移动物体的一个或者多个处理器),该控制信号与可移动物体、承载体、影像设备及/或者其中任何合适部件相关。所述控制信号可以用于大致校正所侦测到的偏差。在某些实施例中,所述调整用于当可移动物体根据用户提供的飞行指令飞行时,大致地维持目标物在可移动物体所捕获的影像中的一种或者多种预期特征(如目标物位置及/或尺寸)。当可移动物体执行用户提供的飞行指令或者预存储的飞行线路时,及/或影像设备在捕获一个或者多个影像时,所述调整大致实时的执行。在某些实施例中,所述调整是基于其它信息所产生,如可移动物体上的一个或者多个传感器(如近程传感器或者GPS传感器)获取的感测数据。例如,所追踪的目标物的位置信息可以由近程传感器所获得或者由目标物本身所提供(如GPS位置)。除了侦测偏差,所述位置信息还用于产生调整控制信号以追踪所述目标物。
在某些实施例中,当可移动物体根据用户提供的飞行指令或者预设飞行路线飞行时,对于目标物追踪的调整只限于承载体及/或影像设备,而不影响可移动物体本身的状态(如姿态、位置、方向或者速度)。这是因为当可移动物体执行用户提供的飞行指令或者预存储的飞行线路时,不能或者不想调整可移动物体。例如,这样的调整可以是承载体相对于可移动物体绕着或者沿着一个、两个或者更多的轴移动所述影像设备,以补偿目标物与预期的位置的偏差。附加地或者可选地,所述调整可以是影像设备的焦距、变焦、焦点或者其它操作参数的调整,以补偿目标物与预期尺寸的偏差。这样的调整方法在图6至7的描述中有讨论。在其它实施例中,所述调整也包括对可移动物体的调整。
根据本发明的另一方面,提供控制可移动物体的系统及方法,以在追踪一个目标物时,控制可移动物体根据一个或者多个飞行指令飞行。图9是本发明实施例中控制可移动物体执行飞行以及追踪的方法900的流程图。方法900可以由控制终端所执行。例如,所述控制终端可以是手持式的或者可穿戴式的。例如,控制终端可以包括智能手机、平板电脑、笔记本电脑、计算机、眼镜、手套、头盔、麦克、或者任何的结合。
方法900包括接收步骤902,以接收用户关于飞行的输入。所述关于飞行的输入用于产生飞行指令以控制可移动物体或者其部件的结合,如图8中的描述。所述关于飞行的输入可以是通过控制终端提供的用户界面所提供,所述用户界面如键盘、鼠标、操纵杆、触摸屏、按键、麦克风、网络摄像头等。任何适合的用户输入可以用于与控制终端交互,如手工输入指令、声音控制、手势控制、或者位置控制(如控制终端的运动、方位或者姿态)。
所述方法900进一步包括接收步骤904,以接收用户关于追踪的输入。所述关于追踪的输入用于产生可移动物体所追踪的目标物的目标物信息或者目标物的类型信息。所述关于追踪的输入可以使用如上所述关于飞行的输入相同或者不同的手段。在一个例子中,关于追踪的输入可以是通过触摸屏所提供,而关于飞行的输入是由操纵杆或者侦测控制终端的姿态变化(如绕着一个旋转轴旋转控制终端)的惯性传感器所提供。在另一个例子中,关于飞行的输入以及关于追踪的输入都是通过相同的用户界面,如通过触摸屏、键盘、鼠标或者操纵杆所提供。
在某些实施例中,关于飞行的输入以及关于追踪的输入可以通过两个或者更多的用户界面所提供。例如,关于飞行的输入是通过操纵杆及触摸屏所提供。以及关于追踪的输入是通过触摸屏、操纵杆及键盘所提供。
所述方法900包括飞行指令产生步骤906,以根据关于飞行的输入产生可移动物体的飞行指令。例如,用户沿着或者绕着一个或者多个预定的轴运动,操纵杆产生的机械信号会转换成可移动物体沿着对应轴(俯仰轴、航向轴、滚转轴)运动的飞行指令。又如,用户与用户界面的交互(如移动代表可移动物体方向或者位置的图标)可以转换为对应的飞行指令。又如,用户沿着或者绕着一个或者多个预定的轴运动,控制终端的动作可以通过一个或者多个惯性传感器所侦测,并产生可移动物体沿着对应轴(俯仰轴、航向轴、滚转轴)运动的飞行指令。除了关于飞行的输入,所述飞行指令也可以基于其它的数据所产生,如可移动物体感测到的感测数据。
所述方法900包括目标物信息产生步骤908,以根据关于追踪的输入产生目标物信息,用于可移动物体追踪一个或者多个目标物。所述目标物信息包括初始目标物信息及/或者预期目标物信息。所述初始目标物信息包括特殊的目标物的指定特征(例如目标物在可移动物体所捕获的影像中的初始坐标),或者一类目标物的通用特征(例如所要追踪的目标物的颜色或者纹理)。初始目标物信息可以用于,例如,从一个或者多个影像中,识别所要追踪的目标物。预期目标物信息可以用于侦测该目标物与预期特征的偏离,所述预期特征如预期位置及/或者尺寸。在某些实施例中,预期目标物信息可以是可选的,部分或者全部的初始目标物信息可以用作预期目标物信息。
方法900可以进一步包括接收用户输入及产生的指令,用以控制承载体及/或影像设备。所述控制包括通过承载体改变影像设备的方向或者姿态、调整影像设备的一个或者多个操作信号(如变焦)等。
在某些实施例中,如下述图10中详细描述,用户可以在图形用户界面选择目标物的坐标、尺寸或者其它特征,并且用该选择的特征产生初始或者预期目标物信息。
在某些实施例中,方法900可以进一步包括提供步骤910,以将产生的飞行指令及/或目标物信息,如通过控制终端的通讯系统,提供给可移动物体。所述指令及信息可以是当可移动物体在使用中(如在预期环境中运动或者操作)时提供给该可移动物体。在某些实施例中,所述指令及信息可以由控制终端直接提供给可移动物体。在其它实施例中,所述指令及信息可以先提供给一个或者是多个中介实体(如中继站或者其它的可移动物体),再传输给可移动物体。
在某些实施例中,方法900的所有步骤都是由相同的实体所完成,如单一的控制终端。在其它实施例中,方法900的各步骤是由两个或者多个分离的实体所执行。该分离的实体可以彼此通讯,例如,通过有线或者无线连接。例如,关于飞行的输入的接收步骤902及飞行指令产生步骤906由第一设备所执行,而关于追踪的输入的接收步骤904及目标物信息产生步骤908是由第二设备所执行。所述第二设备可以传送目标物信息给第一设备,第一设备传送飞行指令及目标物信息给可移动物体。在另一个实施例中,关于飞行的输入的接收步骤902及关于追踪的输入的接收步骤904是由一个设备所执行,而飞行指令产生步骤906及目标物信息产生步骤908是由另一个设备所执行。
根据本发明的其它方面,提供一个交互式的用户界面,该用户界面可以几乎实时地选择及观看可移动物体所追踪的目标物,可移动物体可以为无人飞行器。可以由一个控制终端提供此用户界面。图10是本发明实施例中选择目标物的方法1000的流程图。方法1000的各个步骤可以由控制终端所执行。
方法1000包括显示步骤1002,显示可移动物体所捕获的一个或者多个影像。所述影像是可移动物体通过承载体所搭载的影像设备所捕获的。所述承载体可以允许影像设备相对于可移动物体运动,也可以不允许影像设备相对于可移动物体运动。可选地,影像设备可以直接搭载在可移动物体上而不需要所述承载体。可移动物体将所述影像传送给控制终端,或者由所述影像设备直接将所述影像传送给控制终端。控制终端接收的影像可以经过压缩或者其它处理之后显示在与控制终端相关联的用户界面上。所述用户界面提供显示设备,该显示设备可以集成到所述控制终端。可选地,所述显示设备可以与控制终端是相互分离的,但是与控制终端相连接。显示的影像可以是静态的(如静止的影像),也可以是动态的(如视频)。
在某些实施例中,当从可移动物体及/或者影像设备获取影像时,影像可以几乎实时地显示或者输出(stream)。在某些实施例中,当影像设备捕获到影像后,可移动物体及/或影像设备几乎实时地传送该影像。在其它实施例中,在影像捕获及/或传送与影像的显示之间会有些延迟。
在某些实施例中,方法1000包括接收步骤1004,接收用户从所显示的至少一个影像中选择的目标物。用户可以通过与显示所述影像相同的用户界面中选择所述目标物。例如,在某些实施例中,用户可以通过在一个或者多个影像中选择其中一个区域来实现选择目标物,所选择的区域对应着所述目标物。例如,用户可以利用手指或者触控笔直接在触摸屏上以触控的方式选择目标物。或者,用户可以通过鼠标、操纵杆、手势或者声音控制的方式选择目标物。或者,用户可以通过穿戴式设备,如头盔、虚拟现实护目镜等选择目标物。目标物区域的选择可以包括任何合适的动作,如触摸、轻拍、重拍、画圈、点击等任何合适的输入方式。
在某些实施例中,影像中包括选择指示标识以指示用户选择的目标物。所述选择指示标识可以表示为圆圈、选择标志、箭头、多边形、或者其它任何合适形状的任何颜色或者样式的物体。
方法1000进一步包括目标物信息产生步骤1006,根据用户选择的目标物产生目标物信息。例如,目标物在影像中的坐标及像素尺寸可以用作或者用于产生初始目标物信息。二选一或者附加地,所选择的目标物的相关特征可以用于产生一些目标物类型信息。在某些实施例中,其余的目标物类型信息可以是基于用户的其它输入产生。例如,所述目标物类型信息可以包括所追踪的目标物的颜色或者纹理。目标物类型信息中的颜色信息可以从用户选择的特殊的目标物中所提取,其中,目标物类型信息中的纹理信息是用户手工输入或者众多预设样式中所选择的。
在某些实施例中,用户允许在人工追踪模式和自动追踪模式两者之间进行选择。当选择了人工追踪模式,用户可以从,如控制终端所显示的影像中指定所要追踪的特殊的目标物。另一方面,当选择了自动追踪模式,用户可以指定目标物类型信息,而不用指定需要追踪的特殊的目标物。可移动物体可以利用该目标物类型信息自动识别所要追踪的目标物,随后,开始追踪所识别的目标物。
可选地,所选择的目标物的信息可以用于产生预期目标物信息。例如,所述初始目标物信息可以与所述预期目标物信息相同。另外一个例子中,所述预期目标物信息可以表示为参考初始目标物信息。例如,预期目标物位置可以表示为初始目标物位置的偏移量。相似地,预期目标物尺寸可以表示为预期目标物尺寸与初始目标物尺寸的比率(如预期目标物尺寸是初始目标物尺寸的两倍)。在各种实施例中,目标物信息可以基于如下手段产生:用户选择的目标物、从其它用户输入方法中(如利用键盘输入的数据)获取的数据、及/或者其它非用户资源(本地或者远程的数据存储单元或者其它任何适合的计算系统)中的数据。
方法1000进一步包括目标物信息提供步骤1008,提供目标物信息给可移动物体,以实现追踪目的。例如,可移动物体的一个或者多个处理器利用初始目标物信息及/或目标物类型信息识别所要追踪的目标物。可移动物体可以利用预期目标物信息大致地维持目标物在追踪过程中的预设位置、尺寸、或者其它特征。
在各种实施例中,用于控制追踪过程的一部分目标物信息可以由用户提供,其余的部分可以由系统设置。例如,在一个实施例中,用户通过用户选择的具体的目标物提供初始目标物信息,而预期目标物信息是系统默认的。在另一个例子中,用户可以提供目标物类型信息,而系统根据目标物类型信息自动确定目标物,并根据用户预设或者系统提供的预期目标物信息追踪该目标物。在其它例子中,用户可以提供所有的目标物信息包括初始及预期目标物信息,系统只需要简单地执行对特定目标物的追踪。
在追踪过程中的用户控制以及处理系统控制的特定分配可以根据各种因素调整,例如可移动物体的环境、可移动物体的速度或者姿态、用户偏好、或者可移动物体之内的或者外围的计算能力(如CPU或者存储器)等。例如,当可移动物体在相对复杂的环境中(如有很多的建筑物、障碍物或者在室内)飞行时,会比可移动物体在相对简单的环境(开放的空间或者户外)飞行分配相对多的用户控制。在另一个实施例中,当可移动物体在海拔较低的位置飞行时会比在海拔较高的位置飞行时分配相对多的用户控制。另一个实施例中,当可移动物体配备了高速处理器以能够更快地执行复杂计算时,会分配可移动物体更多的自控。在某些实施例中,在追踪过程中,用户控制以及可移动物体的自控的分配可以根据上述描述的因素而动态调整。
图11是本发明实施例中观察追踪的目标物的方法1100的流程图。方法1100的各个步骤可以是由相同或者不同的控制终端所完成。
方法1100包括接收步骤1102,接收可移动物体捕获的影像,所述可移动物体如所描述的无人飞行器。所述影像可以由可移动物体所搭载的(如通过承载体)影像设备所捕获。在某些实施例中,所述影像可以直接从捕获该影像的影像设备获取。所述影像可以由控制终端所接收。在某些实施例中,可以在提供给控制终端所述目标物信息之后,控制终端再接收所述影像。所述提供控制终端目标物信息的方法可以与上述图9或者图10讨论的方法900或者方法1000相似。可移动物体可以用于根据目标物信息追踪目标物。所述目标物的识别或者指定可以与上述图4所讨论的方法400相似。这样,至少所接收的一些影像中包含所追踪的目标物。
方法1100还包括另一个接收步骤1104,接收追踪信息或者数据,用于指示可移动物体所追踪的一个或者多个目标物的特征。所述追踪信息包括,如目标物在从可移动物体所接收的一个或者多个影像中的相对或者绝对的坐标及/或尺寸、目标物在连续的影像帧中的变化或者偏差、GPS坐标、或者目标物的其它位置信息。
方法1100还包括显示步骤1106,以显示带有追踪数据的影像,以显示可移动物体所追踪的影像。例如,所述追踪数据用于确定所追踪的影像在一些或者全部影像中的位置及/或者尺寸。基于这些位置及/或者尺寸的信息,产生并显示与上述图10中讨论过的选择指示标识相似的追踪指示标识。例如,在给定的影像中给定目标物位置,所述影像中可以在接近所述目标物位置的地方显示追踪指示标识,并且追踪指示标识的尺寸可以足够大以覆盖目标物或者目标物的一部分。追踪指示标识可以包括盒状,圆圈,椭圆,或者任何合适形状、颜色或者尺寸的图形物件。
有益地,用这样的追踪指示标识显示追踪的目标物能够帮助用户在查看可移动物体几乎实时传送或者捕获的影像中,视觉上识别所追踪的目标物。换句话说,用户可以在可移动物体追踪目标物的同时看到该目标物。在其它实施例中,目标物的显示可以有些延迟。
在某些实施例中,当观看可移动物体所追踪的影像时,用户可以选择所追踪的目标物(如通过追踪指示标识的指示),以查看目标物的更多详细信息。用户可以通过与显示影像的用户界面进行交互,以执行有关目标物或者所显示的其它物体的相关操作。例如,用户可以通过手指在触摸屏上的操作执行变焦操作。
用户的一部分操作可以转化为追踪指令,并传送给可移动物体。例如,用户上述描述的变焦操作可以转化影像设备的变焦指令,及/或者控制指令,以移动可移动物体,使其靠近或者远离目标物。可选地或者附加地,用户可以选择切换追踪不同的目标物。这样的切换可以是当用户选择了不同的目标物时自动执行。关于不同目标物的目标物信息可以自动提供给可移动物体,例如,与图10中描述的方法相似。作为响应的,可移动物体自动切换到利用上述描述的方法,如实时地,追踪该不同的目标物。
图12是本发明较佳实施例中控制可移动物体的控制终端1200的示意图。控制终端1200包括显示区域1202,用以显示搭载在可移动物体上的影像设备或者影像传感器捕获的感测数据,如影像数据。所述可移动物体如无人飞行器。所述影像数据包括可移动物体上的影像设备或者影像传感器所捕获到的一个或者多个物体1210及1206的影像。所述一个或者多个物体可以包括可移动物体所追踪的目标物1206。所述目标物显示时可以带有指示标识1208。指示标识1208可以包括如上图10所描述的选择指示标识,用于指示用户选择的可移动物体所追踪的目标物,及/或者如上图11所描述的追踪指示标识,用于指示可移动物体所追踪的目标物。当目标物的位置在不同影像中有所变化时,指示标识1208可以跟随目标物进行移动。
控制终端1200也可以包括一个或者多个输入设备1204及1205,用于接收用户的输入。这样的输入设备包括操纵杆1204、按钮或者开关1205、键盘、鼠标、触摸屏或者其它的结构。例如,一个或者多个按钮或者开关1205可以用于在不同的输入模式之间进行切换,所述输入模式,如,飞行输入模式、目标物输入模式等。开关1205也可以用于在如上描述的人工追踪模式及自动追踪模式之间进行选择。所述部分输入单元,如操纵杆的功能根据选择的输入模式可以改变。例如,当选择了飞行输入模式时,这样的输入设备可以用于提供飞行输入,当选择了目标物输入模式时,这样的输入设备用于提供目标物信息。另一个例子中,当选择了人工追踪模式时,这样的输入设备可以用于选择目标物,及当选择了自动追踪模式时,这样的输入设备可以用于提供目标物类型信息。
图13A-C是本发明的实施例中利用用户界面选择目标物的示意图。在一个实施例中,如图13A所演示的,用户界面能够使用户用手1302,通过在触摸屏上触摸一个区域的方式,选择目标物1304,所述区域对应所选择的目标物。所选择的目标物1304可以由选择指示标识1306所指示,所述选择指示标识可以是如包围所选择的目标物1304的圆圈。在另一个实施例中,如图13B所演示的,用户界面能够使用户利用鼠标1308,例如,通过点击屏幕上的区域,选择目标物1310,该区域对应所述目标物。所选择的目标物1310可以由选择指示标识1312所指示。在另一个实施例中,如图13C所演示的,用户界面能够使用户利用触控笔1314,例如,通过在触摸屏上轻击一个区域的方式,选择目标物1316,所述区域对应所选择的目标物。所选择的目标物1316可以由选择指示标识1318所指示。在各种实施例中,所述选择指示标识可以是任意形状,如圆圈1306、矩形1312或者菱形1318。
上述描述的系统及方法可以由任何类型的可移动物体所执行。所述系统、方法、设备可以应用在任何类型的可移动物体。如前所述关于飞行器的各种描述同样适用任何其它的可移动物体。本发明所述可移动物体可以在任何适合的环境中运动,如空气中(例如,固定翼飞行器,旋翼飞行器,或者既不包括固定翼也不包括旋翼的飞行器),在水中(例如,船或者潜艇),在地面上(例如,机动车,包括小汽车、卡车、公共汽车、运货车、摩托车,可移动的结构,如杆子、鱼竿;或者火车),在地下的(如地铁),在太空中的(如,卫星、空间站、宇宙飞船),或者这些环境中的任意结合。所述可移动物体可以是运输工具,例如上述描述的任何运输工具。在某些实施例中,所述可移动物体可以绑定在生物体上,如人类或者动物。适合的动物可以包括灵长类动物、鸟类、犬类、猫科动物、马、牛、绵羊、猪、海豚、啮齿类动物、或者昆虫。
可移动物体可以在上述环境中在六个自由度自由运动(在三个自由度旋转以及在三个自由度的平移)。可选地,可移动物体的运动可以限制在一到两个自由度,如在预设线路、轨道或者方向上运动。所述运动可以是由任何的致动机构所致动,如引擎或者电机。可移动物体的致动机构可以是由任何合适的能源所实现,如电能、磁力、太阳能、风能、重力能、化学能、核能、或者其中任何适合的结合。可移动物体可以是通过动力系统自我驱动。可选的,所述动力系统可以利用能源运转,所述能源如电能、磁力、太阳能、风能、重力能、化学能、核能、或者其中任何适合的结合。可选地,所述可移动物体可以由生物体所承载。
在某些实施例中,所述可移动物体可以是运输工具。合适的运输工具包括水中的运输工具、空中的运输工具、空间的运输工具、或者地面上的运输工具。例如,空中的运输工具可以是固定翼飞行器(如飞机、滑翔机),旋翼飞行器(如直升机、旋翼机),既有固定翼又有旋翼的飞行器,及既没有固定翼又没有旋翼的飞行器(如软式飞艇、热气球)。运输工具可以自我驱动,如通过空气、在水面或者水中、在空间、或者在地面或者地下自我驱动。自我推进的运输工具可以利用一个动力系统,如包括一个或者多个引擎、电机、轮子、轴承、磁铁、旋转体、螺旋桨、桨叶、喷嘴或者包括其中任何结合的动力系统。在某些情况下,动力系统可以使可移动物体脱离一个表面、降落在一个表面、维持当前的位置及/或方向、改变方向、及/或改变位置。
可移动物体可以由用户遥控控制或者由可移动物体之内或者之上的部件所控制。在某些实施例中,可移动物体是无人操作的可移动物体,如无人飞行器。无人操作的可移动物体,如无人飞行器,可以没有搭载任何乘坐者。可移动物体可以由人类或者自动控制系统(如计算机控制系统),或者其结合所控制。可移动物体可以是自动或者半自动的机器人,如具有人工智能的机器人。
可移动物体可以有任何的尺寸及/或者维度。在某些实施例中,所述可移动物体的尺寸及/或者维度是可以容纳人乘坐者在里面。可选地,所述可移动物体的尺寸及/或者维度可以小于人乘坐者能够容纳在里面的尺寸及/或者维度。所述可移动物体的尺寸及/或者维度可以是适合人提起或者携带的。或者,所述可移动物体的尺寸及/或者维度可以大于人能够提起或者携带的尺寸及/或者维度。在某些例子中,所述可移动物体的最大的维度(例如,长、宽、高、直径、对角线)小于或者等于大约:2cm,5cm,10cm,50cm,1m,2m,5m,或者10m。所述最大的维度也可以大于或者等于大约:2cm,5cm,10cm,50cm,1m,2m,5m,或者10m。例如,飞行器(可移动物体的一个例子)相反转子的轴的距离可以小于或者等于大约:2cm,5cm,10cm,50cm,1m,2m,5m,或者10m。可选地,飞行器相反转子的轴的距离可以大于或者等于大约:2cm,5cm,10cm,50cm,1m,2m,5m,或者10m。
在某些例子中,所述可移动物体的体积可以小于100cm×100cm×100cm,小于50cm×50cm×30cm,或者小于5cm×5cm×3cm。所述可移动物体的整个体积可以小于或者等于1cm3,2cm3,5cm3,10cm3,20cm3,30cm3,40cm3,50cm3,60cm3,70cm3,80cm3,90cm3,100cm3,150cm3,200cm3,300cm3,500cm3,750cm3,1000cm3,5000cm3,10,000cm3,100,000cm3,1m3,或者10m3。相反的,所述可移动物体的整个体积可以大于或者等于1cm3,2cm3,5cm3,10cm3,20cm3,30cm3,40cm3,50cm3,60cm3,70cm3,80cm3,90cm3,100cm3,150cm3,200cm3,300cm3,500cm3,750cm3,1000cm3,5000cm3,10,000cm3,100,000cm3,1m3,或者10m3。
在某些实施例中,所述可移动物体的占地面积(可移动物体的横断面的面积)可以小于或者等于大约:32,000cm2,20,000cm2,10,000cm2,1,000cm2,500cm2,100cm2,50cm2,10cm2,或者5cm2。相反的,所述可移动物体的占地面积(可移动物体的横断面的面积)可以大于或者等于大约:32,000cm2,20,000cm2,10,000cm2,1,000cm2,500cm2,100cm2,50cm2,10cm2,或者5cm2。
在某些例子中,所述可移动物体的重量可以小于1000kg。所述可移动物体的重量可以小于或者等于1000kg,750kg,500kg,200kg,150kg,100kg,1000kg,80kg,70kg,60kg,50kg,45kg,40kg,35kg,30kg,25kg,20kg,15kg,12kg,10kg,9kg,8kg,7kg,6kg,5kg,4kg,3kg,2kg,1kg,0.5kg,0.1kg,0.05kg,或者0.01kg。相反的,所述可移动物体的重量可以大于或者等于1000kg,750kg,500kg,200kg,150kg,100kg,1000kg,80kg,70kg,60kg,50kg,45kg,40kg,35kg,30kg,25kg,20kg,15kg,12kg,10kg,9kg,8kg,7kg,6kg,5kg,4kg,3kg,2kg,1kg,0.5kg,0.1kg,0.05kg,或者0.01kg,
在某些实施例中,可移动物体可以比其载荷要小。所述载荷包括负载及/或者承载体,下面会详细描述。在某些例子中,可移动物体的重量与其载荷的重量的比值可以大于、小于或者等于大概1:1。可选地,所述承载体的重量与所述载荷的重量的比值可以小于或者等于1:2,1:3,1:4,1:5,1:10,甚至更小。相反的,所述承载体的重量与所述载荷的重量的比值可以大于或者等于:2:1,3:1,4:1,5:1,10:1,甚至更大。
在某些实施例中,所述可移动物体可以有较低的能量消耗。例如,所述可移动物体可能使用的能量消耗小于大约:5W/h,4W/h,3W/h,2W/h,1W/h,甚至更少。在某些实施例中,所述飞行器的承载体可以有较低的能量消耗。例如,所述承载体可能使用的能量消耗小于大约:5W/h,4W/h,3W/h,2W/h,1W/h,甚至更少。可选地,所述飞行器的负载可以有较低的能量消耗。例如,所述可移动物体的负载可能使用的较低的能量消耗,例如小于大约:5W/h,4W/h,3W/h,2W/h,1W/h,甚至更少。
图14是本发明无人飞行器1400较佳实施例的示意图。所述无人飞行器是可移动物体的一个例子。所述无人飞行器1400包括动力系统,该动力系统有四个旋转体1402、1404、1406、1408。动力系统可以有任何数量的旋转体(如一个、两个、三个、四个、五个、六个或者更多)。所述旋转体可以是自紧固旋转体。无人飞行器的旋转体,旋转体组件,或者其它的动力系统能够使无人飞行器盘旋/维持原来的位置,改变方向,及/或改变位置。相反的旋转体的桨叶之间的距离可以有任何合适的长度1410。例如,该长度1410可以小于或者等于2m,小于等于5m。在某些实施例中,所述长度1410可以在一个范围内,该范围可以是从40cm到1m,从10cm到2m,或者从5cm到5m。对无人飞行器的任何描述同样适用任何一个可移动物体,如不同类型的可移动物体,反之亦然。
在某些实施例中,可移动物体可以用于承载载荷。所述载荷可以包括一个或者多个乘客、货物、设备、装置等。所述载荷可以在壳体(housing)内。所述壳体可以与可移动物体的壳体分离,也可以是可移动物体的壳体的一部分。可选地,所述载荷可以在壳体内,而可移动物体没有任何的壳体。可选地,所述载荷的部分或者全部都不需要在壳体内。所述载荷可以稳固在可移动物体上。可选的,所述载荷可以相对于可移动物体移动(例如,相对于可移动物体平移或者旋转)。
在某些实施例中,所述载荷包括负载1412。负载可以不用于执行任何的功能。可选地,所述负载可以是用来执行一种操作或者功能的负载,也称为功能性负载。例如,负载可以包括一个或者多个传感器,用以视察一个或者多个目标物。负载可以集成任何合适的传感器,如影像捕获设备(如相机),音频捕获设备(如抛物线耳机),红外影像设备,或者紫外线影像设备。所述传感器可以提供静态的感测数据(如照片)或者动态的感测数据(如视频)。在某些实施例中,所述传感器提供负载目标物的感测数据。可选地或者相共同地,所述负载可以包括一个或者多个发射体,用于向一个或者多个目标物提供信号。所述发射体可以是任何合适的发射体,如照射源或者声源。在某些实施例中,负载包括一个或者多个无线电收发器,如与可移动物体的远程模块进行通信。可选地,所述负载可以包括工具、设备或者机构以能够操作物体,如机械手臂。
可选地,载荷可以包括承载体1414。所述承载体可以提供给负载,负载可以通过所述承载体,直接(直接接触可移动物体)或者非直接(不接触可移动物体)地,搭载在可移动物体上。相反地,负载可以不需要所述承载体而直接安装在可移动物体上。负载可以集成在承载体上。可选地,负载可以是可移除的搭载在承载体上。在某些实施例中,负载包括一个或者多个元件,该一个或者多个元件可以,如上所描述的,相对可移动物体及/或承载体移动。
承载体可以集成在可移动物体上。可选地,所述承载体可以是可移除的搭载在可移动物体上。承载体可以直接或非直接地搭载在可移动物体上。承载体可以支撑负载(如承载负载的一部分重量)。承载体可以包括合适的装载结构(如云台),能够稳定及/或指导负载的运动。在某些实施例中,承载体可以用于控制负载相对于可移动物体的状态(如位置及/或方向)。例如,承载体可以用于相对可移动物体移动(如相对于一个、两个或者三个轴旋转或者平移),以维持负载相对于合适的参照物的位置及/或方向,而不管可移动物体如何运动。所述参照物可以是一个固定的参照物(如外围环境)。可选地,所述参照物是一个运动的参照物(如可移动物体或者负载的目标物)。
在某些实施例中,所述承载体可能允许负载相对于承载体及/或可移动物体运动。所述运动可以是相对多达三个自由度的平移运动(如沿着一个、两个或者三个轴),也可以是相对多达三个自由度的旋转运动(如绕着一个、两个或者三个轴),或者其中的任何合适的结合。
在某些实施例中,所述承载体包括一个承载体结构组件(frame assembly)以及一个承载体致动组件(actuation assembly)。所述承载体结构组件可以提供对负载的结构性支撑。所述承载体的结构组件可以包括多个单独的承载体结构部件,其中的一些结构部件之间可以相对运动。所述承载体致动组件可以包括一个或者多个致动器(如电机),可以驱动所述单独的承载体结构部件。所述致动器允许多个承载体结构部件同时运动,或者可以一次只允许一个承载体结构部件运动。承载体结构部件的运动能够导致承载体产生对应的运动。例如,承载体致动组件可以驱动一个或者多个承载体结构部件绕着一个或者多个旋转轴(如滚转轴、俯仰轴或者航向轴)旋转。一个或者多个承载体结构部件的旋转可以导致负载相对于可移动物体绕着一个或者多个旋转轴旋转。可选地或者相共同地,承载体致动组件可以致动一个或者多个承载体结构部件沿着一个或者多个轴平移,因此,可以导致负载相对于可移动物体绕着对应的一个或者多个轴平移。
在某些实施例中,可移动物体的运动、承载体的运动及负载相对固定参照物(如外部环境)的运动,及/或者彼此间的运动,都可以由终端所控制。所述终端可以是远程控制终端,位于远离可移动物体、承载体及/或负载的地方。终端可以位于或者粘贴于支撑平台上。可选地,所述终端可以是手持的或者穿戴式的。例如,所述终端可以包括智能手机、平板电脑、桌上型电脑、计算机、眼镜、手套、头盔、麦克风或者其中任意的结合。所述终端可以包括用户界面,如键盘、鼠标、操纵杆、触摸屏或者显示器。任何适合的用户输入可以与终端交互,如手动输入指令、声音控制、手势控制或者位置控制(如通过终端的运动、位置或者倾斜)。
所述终端可以用于控制可移动物体、承载体及/或负载的任何状态。例如,该终端可以用于控制可移动物体、承载体、及/或负载相对于固定的参照物的位置及/或方向,以及彼此间的位置及/或方向。在某些实施例中,终端可以用于控制可移动物体、承载体及/或负载的单独的部件,如负载的致动组件、负载的传感器、或者负载的发射器等。所述终端可以包括无线通讯设备用于与可移动物体、承载体或者负载通讯。
终端可以包括合适的显示设备用于显示可移动物体、承载体及/或负载的信息。例如,终端可以用于显示可移动物体、承载体及/或负载的信息,如位置、平移速度、平移加速度、方位、角速度、角加速度、或者其中任意结合。在某些实施例中,终端可以显示负载提供的信息,如功能性负载提供的数据(如相机或者其它影像捕获设备记录的影像)。
可选地,同一个终端既可以控制可移动物体、承载体及/或负载,如运动或者控制状态,也可以接收及/或显示来可移动物体、承载体及/或负载的信息。例如,终端可以控制负载相对于环境的位置,同时显示负载捕获的影像数据,或者关于负载位置的信息。可选地,不同的终端用于控制不同的功能。如,第一终端用于控制可移动物体、承载体及/或负载的运动或者状态,而第二终端用于接收及/或显示可移动物体、承载体及/或负载的信息。例如,第一终端可以用于控制负载相对于环境的位置,而第二终端用于显示负载捕获的影像。可移动物体与既能控制可移动物体又能接收数据的集成终端之间,或者可移动物体与控制可移动物体与接收数据的多个终端之间可以采用各种通讯模式。例如,可移动物体与控制可移动物体及接收数据的终端之间可以有至少两种不同的通讯模式。
图15是本发明可移动物体1500的较佳实施例的示意图。该可移动物体1500包括承载体1502及负载1504。尽管可移动物体1500被描述为飞行器,然而这样的描述并不是限制,前述描述的任何类型的可移动物体都适用。本领域技术人员应该了解,本文所描述的任何关于飞行器系统的实施例适用于任何可移动物体(如无人飞行器)。在某些实施例中,负载1504可以直接位于可移动物体1500上,而不需要承载体1502。可移动物体1500可以包括动力机构1506,传感系统1508以及通讯系统1510。
如前所述,所述动力机构1506可以包括一个或者多个旋转体、螺旋桨、桨叶、引擎、电机、轮子、轴承、磁铁、喷嘴。例如,所述动力机构的旋转体可以是自紧固(self-tightening)旋转体、旋转体组件、或者其它的旋转体动力单元。可移动物体可以有一个或者两个、两个或者多个、三个或者多个、或者四个或者多个动力机构。所有的动力机构可以是相同的类型。可选地,一个或者多个动力机构可以是不同的类型。动力机构1506可以通过合适的手段安装在可移动物体上,如通过支撑元件(如驱动轴)。动力机构1506可以安装在可移动物体1500任何合适的位置,如顶端、下端、前端、后端、侧面或者其中的任意结合。
在某些实施例中,动力机构1506能够使可移动物体垂直地从表面起飞,或者垂直地降落在表面上,而不需要可移动物体1500任何水平运动(如不需要在跑道上滑行)。可选地,动力机构1506可以允许可移动物体1500在空中预设位置及/或者方向盘旋。一个或者多个动力机构1500在受到控制时可以独立于其它的动力机构。可选地,一个或者多个动力机构1500可以同时受到控制。例如,可移动物体1500可以有多个水平方向的旋转体,以控制可移动物体的提升及/或推动。水平方向的旋转体可以被致动以提供可移动物体1500垂直起飞、垂直降落、盘旋的能力。在某些实施例中,水平方向的旋转体中的一个或者多个可以顺时针方向旋转,而水平方向的旋转体中的其它一个或者多个可以逆时针方向旋转。例如,顺时针旋转的旋转体与逆时针旋转的旋转体的数量一样。每一个水平方向的旋转体的旋转速率可以独立变化,以实现每个旋转体导致的提升及/或推动操作,从而调整可移动物体1500的空间方位、速度及/或加速度(如相对于多达三个自由度的旋转及平移)。
传感系统1508可以包括一个或者多个传感器,以感测可移动物体1500的空间方位、速度及/或加速度(如相对于多达三个自由度的旋转及平移)。所述一个或者多个传感器包括前述描述的任何传感器,包括GPS传感器、运动传感器、惯性传感器、近程传感器或者影像传感器。传感系统1508提供的感测数据可以用于控制可移动物体1500的空间方位、速度及/或加速度(如下所述,利用适合的处理单元及/或控制单元)。可选地,传感系统1508可以用于可移动物体的的环境的数据,如气候条件、要接近的潜在的障碍、地理特征的位置、人造结构的位置等。
通讯系统1510能够实现与具有通讯系统1514的终端1512通过无线信号1516进行通讯。通讯系统1510、1514可以包括任何数量的用于无线通讯的发送器、接收器、及/或收发器。所述通讯可以是单向通讯,这样数据可以从一个方向发送。例如,单向通讯可以包括,只有可移动物体1500传送数据给终端1512,或者反之亦然。通讯系统1510的一个或者多个发送器可以发送数据给通讯系统1512的一个或者多个接收器,反之亦然。可选地,所述通讯可以是双向通讯,这样,数据可以在可移动物体1500与终端1512之间在两个方向传输。双向通讯包括通讯系统1510的一个或者多个发送器可以发送数据给通讯系统1514的一个或者多个接收器,及反之亦然。
在某些实施例中,终端1512可以向可移动物体1500、承载体1502及负载1504中的一个或者多个提供控制数据,并且从可移动物体1500、承载体1502及负载1504中的一个或者多个中接收信息(如可移动物体、承载体或者负载的位置及/或运动信息,负载感测的数据,如相机捕获的影像数据)。在某些实施例中,终端的控制数据可以包括关于位置、运动、致动的指令,或者对可移动物体、承载体及/或负载的控制。例如,控制数据可以导致可移动物体位置及/或方向的改变(如通过控制动力机构1506),或者导致承载体相对于可移动物体的运动(如通过对承载体1502的控制)。终端的控制数据可以导致负载控制,如控制相机或者其它影像捕获设备的操作(捕获静止或者运动的影像、变焦、开启或关闭、切换成像模式、改变影像分辨率、改变焦距、改变景深、改变曝光时间、改变可视角度或者视场)。在某些实施例中,可移动物体、承载体及/或负载的通讯可以包括一个或者多个传感器(如传感系统1508或者负载1504)发出的信息。所述通讯可以包括从一个或者多个不同类型的传感器(如GPS传感器、运动传感器、惯性传感器、近程传感器或者影像传感器)传送的感应信息。所述感应信息是关于可移动物体、承载体及/或负载的位置(如方向、位置)、运动、或者加速度。从负载传送的感应信息包括负载捕获的数据或者负载的状态。终端1512传送提供的控制数据可以用于控制可移动物体1500、承载体1502或者负载1504中一个或者多个的状态。可选地或者相共同地,承载体1502及负载1504每一个都可以包括通讯模块,用于与终端1512通讯,以便终端可以单独地通讯或者控制可移动物体1500、承载体1502及负载1504。
在某些实施例中,可移动物体1500可以与除了终端1512之外的其它远程设备,或者非终端1512的远程设备通讯。终端1512也可以与另外一个远程设备及可移动物体1500进行通讯。例如,可移动物体及/或终端1512可以与另一个可移动物体或者另一个可移动物体的承载体或负载通讯。当有需要的时候,所述另外的远程设备可以是第二终端或者其它计算设备(如计算机、桌上型电脑、平板电脑、智能手机、或者其它移动设备)。该远程设备可以向可移动物体1500传送数据,从可移动物体1500接收数据,传送数据给终端1512,及/或从终端1512接收数据。可选地,该远程设备可以连接到因特网或者其它电信网络,以使从可移动物体1500及/或终端1512接收的数据上传到网站或者服务器上。
图16是本发明实施例中追踪可移动物体的系统1600的示意图。所述系统1600可以结合本案前述描述的系统、设备或者方法的任何适合的实施例。例如,系统1600可以由可移动物体执行或者承载。系统1600可以包括感测模块1602,处理单元1604,非易失性计算机可读介质1606,控制模块1608及通讯模块1610。
所述感测模块1602用于利用不同类型的传感器,采用不同方法,收集可移动物体的相关信息。不同类型的传感器可以感测不同种类的信号或者感测不同来源的信号。例如,所述传感器包括惯性传感器、GPS传感器、近程传感器(如激光雷达)、或者视觉/影像传感器(如相机)。所述感测模块1602可以与包括多个处理器的处理单元1604连接。在某些实施例中,所述感测模块1602可以与传送模块1612(如Wi-Fi影像传送模块)连接,用于直接传送感测数据给合适的外部设备或者系统。例如,传送模块1612可以用于传送感测模块1602的相机捕获的影像给远程终端。
所述处理单元1604可以有一个或者多个处理器,如可编程的处理器(如中央处理器)。例如,处理单元1604可以包括现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者一个或者多个ARM处理器。处理单元1604可以与非易失性计算机可读介质1606连接。所述与非易失性计算机可读介质1606可以存储由处理单元1604所执行的逻辑、代码及/或者计算机指令,用于执行一个或者多个步骤。非易失性计算机可读介质1606可以包括一个或者多个存储单元(可去除的介质或者外部存储器,如SD卡或者RAM)。在某些实施例中,感测模块1602感测的数据可以直接传送并存储到非易失性计算机可读介质1606的存储单元中。非易失性计算机可读介质1606的存储单元可以存储由处理单元1604所执行的逻辑、代码及/或者计算机指令,以执行本案描述的各种方法的各个实施例。例如,处理单元1604可以用于执行指令,以导致处理单元1604的一个或者多个处理器执行上述描述的追踪功能。所述存储单元可以存储感测模块感测数据,该数据感测由处理单元1604所处理。在某些实施例中,非易失性计算机可读介质1606的存储单元可以存储处理单元1604产生的处理结果。
在某些实施例中,所述处理单元1604可以与控制模块1608连接,用以控制可移动物体的状态。例如,控制模块1608可以用于控制可移动物体的动力机构,以调整可移动物体相对于六个自由度的空间方位、速度及/或加速度。可选地或者相结合的,所述控制模块1608可以控制承载体,负载或者感测模块中的一个或者多个。
所述处理单元1604可以与通讯模块1610连接,用以与一个或者多个外围设备(如终端、显示设备、或者其它远程控制设备)传送及/或者接收数据。这里可以利用任何合适的通讯方法,如有线通讯或者无线通讯。例如,通讯模块1610可以利用到一个或者多个局域网、广域网、红外线、无线电、Wi-Fi、点对点(P2P)网络、电信网络、云网络等。可选地,可以用到中继站,如信号塔、卫星、或者移动基站等。无线通讯可以是基于近距离的,也可以不是近距离的。在某些实施例中,通讯时可以要求视线距离也可以不要求视线距离。通讯模块1610可以与感测模块1602之间传送及/或者接收一种或者多种感测数据,接收处理单元1604产生的处理结果,接收终端或者远程控制器等发送的预设控制数据或者用户指令。
系统1600的各个部件之间可以是任何适合的排配。例如,系统1600的一个或者多个部件位于可移动物体、承载体、负载、终端、感测系统、或者与前述各设备通讯的额外的外部设备上。此外,尽管图16描述了一个处理单元1604以及一个非易失性计算机可读介质1606,本领域技术人员应该知道,这样的描述不是限制,系统1600可以包括多个处理单元及/或多个非易失性计算机可读介质。在某些实施例中,处理单元及/或非易失性计算机可读介质中的一个或者多个可以位于不同的位置,如在可移动物体、承载体、负载、终端、感测系统、或者与前述各设备通讯的额外的外部设备以及前述的各种结合上,这样,系统1600执行的各种处理或者存储功能都可以发生在不同的位置。
图17是本发明实施例中控制可移动物体的系统1700的示意图。系统1700可以用于控制可移动物体,如无人飞行器。系统1700可以结合本案前述描述的系统、设备或者方法的任何适合的实施例。例如,系统1700可以由终端所执行。系统1700可以包括输入模块1702、处理单元1704、存储器1706、显示模块1708、以及通讯模块1710,所有这样的部件都是通过总线或者相似的网络相连接。
所述输入模块1702包括一个或者多个输入机制,以接收用户通过操作该输入模块产生的输入。所述输入机制包括一个或者多个操纵杆、开关、旋钮、滑动开关、按钮、拨号盘、触摸屏、小键盘、键盘、鼠标、声音控制、手势控制、惯性模块等。所述输入模块1702可以用于接收用户的输入,该输入用于控制可移动物体、承载体、负载、或者其中部件的任何方面。所述任何方面包括姿态、位置、方向、飞行、追踪等。例如,所述输入机制可以是用户手动设置一个或者多个位置,每个位置对应一个预设输入,以控制无人飞行器。
在某些实施例中,所述输入机制可以由用户操作,以输入控制指令,控制可移动物体的飞行。例如,用户可以利用旋钮、开关或者相似的输入机制,输入可移动物体的飞行模式,如自动飞行或者根据预设飞行路径飞行。又如,用户可以通过用某种方法倾斜控制终端,以控制可移动物体的位置、姿态、方向、或者其它方面。所述控制终端的倾斜可以由一个或者多个惯性传感器所侦测,并产生对应的飞行指令。再如,用户可以利用上述输入机制调整负载的操作参数(如变焦)、负载的姿态(通过承载体),或者可移动物体上的任何物体的其它方面。
在某些实施例中,所述输入机制可以由用户操作,以输入前述描述目标物信息。例如,用户可以利用旋钮、开关或者相似的输入机制,选择合适的追踪模式,如人工追踪模式或者自动追踪模式。用户也可以利用该输入机制选择所要追踪的特定目标物、执行的目标物类型信息、或者其它相似的信息。在各种实施例中,所述输入模块可以由不止一个设备所执行。例如,所述输入模块可以由带有操纵杆的标准远程控制器所执行。所述带有操纵杆的标准远程控制器连接到运行适合应用程序(“app”)的移动设备(如智能手机)中,以产生可移动物体的控制指令。所述app可以用于获取用户的输入。
所述处理单元1704有一个或者多个处理器,如可编程的处理器(如中央处理器或者微控制器)。所述处理单元1704可以与存储器1706连接。所述存储器1706包括易失性或者非易失性存储介质,用于存储数据,及/或处理单元1704可执行的逻辑、代码、及/或程序指令,用于执行一个或者多个规则或者功能。所述存储器1706可以包括一个或者多个存储单元(可去除的介质或者外部存储器,如SD卡或者RAM)。在某些实施例中,输入模块1702的数据可以直接传送并存储在存储器1706的存储单元中。存储器1706的存储单元可以存储由处理单元1704所执行的逻辑、代码及/或者计算机指令,以执行本案描述的各种方法的各个实施例。例如,处理单元1704可以用于执行指令,以导致处理单元1704的一个或者多个处理器处理及显示从可移动物体接收的感应数据(如影像),基于用户输入产生的控制指令,包括飞行指令及目标物信息,并导致通讯模块1710传送及/或者接收数据等。存储单元可以存储感测数据或者从外部设备(如可移动物体)接收的其它数据。在某些实施例中,存储器1706的存储单元可以存储处理单元1704生成的处理结果。尽管图17中描述了一个处理单元1704以及一个存储器1706,本领域技术人员应该了解,这并不是限制,系统1700可以包括多个处理单元及存储器。
在某些实施例中,显示模块1708可以用于显示可移动物体、承载体及/或负载关于位置、平移速度、平移加速度、方向、角速度、角加速度、或者其结合等的信息。所述显示模块1708可以用于接收可移动物体及/或者负载发送的信息,如感测数据(相机或者其它影像捕获设备记录的影像)、所描述的追踪数据、控制反馈数据等。在某些实施例中,所述显示模块1708可以与所述输入模块1702由相同的设备所执行。在其它实施例中,所述显示模块1708与所述输入模块1702可以由不相同的设备所执行。
所述通讯模块1710可以用于从一个或者多个远程设备(如可移动物体、承载体、基站等)传送及/或者接收数据。例如,通讯模块1710可以传送控制信号(如飞行信号、目标物信息、追踪控制指令)给外围系统或者设备,如可移动物体、承载体及/或负载。所述通讯模块1710可以包括传送器1712及接收器1714,分别用于从远程设备接收数据以及传送数据给远程设备。在某些实施例中,所述通讯模块可以包括收发器,其结合了传送器与接收器的功能。在某些实施例中,传送器与接收器之间以及与处理单元1704之间可以彼此通讯。所述通讯可以利用任何合适的通讯手段,如有线通讯或者无线通讯。
本案描述的追踪系统及方法可以有很多应用。如图18,演示了本发明的一个应用情况,其中,用户1802可以配置无人飞行器1804,在用户从事各种活动时,追踪用户自己。如图18所演示的,用户可以利用控制终端1806提供目标物信息给无人飞行器1804。所述控制终端1806可以提供用户界面,以接收用户输入并据此产生输入信息。例如,用户界面可以用于显示一个或者多个影像(如图片或者视频),该一个或者多个影像是由位于无人飞行器或者其它地方的影像设备1805所捕获。影像设备1805可以通过承载体1803搭载在无人飞行器上。无人飞行器可以实时或者接近实时地传动影像给控制终端。可选地,所述影像也可以是以前存储在控制终端及/或由其它来源产生或者提供。其中的一些影像可以显示所述用户。用户可以从这些影像中的任何一个影像中选择自己,例如,通过触摸或者其它方式选择对应该用户的一个区域。在某些实施例中,用户可以指定目标物类型信息,而不是选择执行的目标物信息。所述目标物类型信息可以用于描述应该追踪的目标物的类型,如“带红色帽子的人”。用户指定的目标物信息可以传送给无人飞行器。所述传送可以是通过有线的或者无线的连接。在各种实施例中,可以在操作无人飞行器之前或者同时,传送所述目标物信息给无人飞行器。例如,可以当无人飞行器起飞后或者着陆后传送目标物信息给无人飞行器。在某些实施例中,用户也可以指定起始时间、结束时间、及/或者追踪时间段。这样的时间信息可以用于控制追踪过程的时间。
无人飞行器1804上的处理器利用所述目标物信息自动地追踪用户1802,例如,当用户在锻炼(如骑行或者跑步)时。当被追踪及当无人飞行器上的影像设备1805捕获用户的影像时,用户可以维持大致静止的,以使用户在捕获到的影像中维持预设尺寸或者位置。例如,无人飞行器1804、承载体1803及/或影像设备1805的位置、姿态、方向、速度、焦距、或者其它特征可以被调整,以实时追踪用户。这样的调整可以是由无人飞行器上的处理器所自动产生,而不需要用户介入。可选地或者附加地,所述追踪可以有用户的介入(如对影像设备变焦)。用户预设尺寸或者位置可以由用户指定或者是系统的默认值。在某些实施例中,用户可以穿戴或者拿着一个物体,以便于对用户的追踪。这样的物体包括亮的有颜色的帽子或者衣服。
在某些实施例中,在追踪过程中捕获的影像可以从无人飞行器或者影像设备传回给控制终端或者其它适合的设备,以显示、播放、存储、编辑或者其它目的。这样的传送可以是当影像设备捕获影像时,实时的或者将近实时的发生。可选地,影像的捕获及传送之间可以有延迟。在某些实施例中,影像可以存储在无人飞行器的存储器中,而不用传送到任何其它地方。用户可以实时看到这些影像,如果需要,调整目标物信息或者调整无人飞行器或者其部件的其它方面。调整的目标物信息可以提供给无人飞行器,重复的过程可能继续直到获得可想要的影像。在某些实施例中,所述影像可以从无人飞行器、影像设备及/或控制终端传送给远程服务器。例如,影像可以在一些社交网络平台,如Facebook或者Twitter上,分享。
以上所述仅为本发明的较佳实施例,并非因此限制本发明的专利范围,本领域的普通技术人员在不脱离本发明精神的情况下,可以做出变化、改变、等效结构或等效流程变换。这些变换均同理包括在本发明的专利保护范围内,本发明的范围仅局限于后附的权利要求书。
Claims (47)
1.一种控制无人飞行器的方法,其特征在于,该方法包括:
从远程终端接收一个或者多个飞行指令,以控制所述无人飞行器沿着飞行线路移动;
从所述远程终端接收目标物信息,该目标物信息是所述无人飞行器上的影像设备追踪的目标物的信息;
当所述无人飞行器根据远程终端的一个或者多个飞行指令沿着所述飞行线路移动时,自动调整所述无人飞行器或者影像设备中的至少一个,以根据所述目标物信息追踪所述目标物,从而维持该目标物在所述影像设备所捕获的一个或者多个影像中的预设位置及/或尺寸。
2.一个具有追踪能力的无人飞行器,其特征在于,该无人飞行器包括:
一个或者多个接收器,用于单独地或者相共同地,从远程终端接收一个或者多个飞行指令,以控制所述无人飞行器沿着飞行线路移动,及接收目标物信息,该目标物信息是所述无人飞行器上的影像设备追踪的目标物的信息;
一个或者多个处理器,用于单独地或者相共同地,根据远程终端的一个或者多个飞行指令沿着所述飞行线路移动时,自动调整所述无人飞行器或者影像设备中的至少其中之一,以根据所述目标物信息追踪所述目标物,从而维持该目标物在所述影像设备所捕获的一个或者多个影像中的预设位置及/或尺寸。
3.一种控制无人飞行器的系统,其特征在于,该系统包括:
一个或者多个接收器,用于单独地或者相共同地,从远程终端接收一个或者多个飞行指令,以控制所述无人飞行器沿着飞行线路移动,及接收目标物信息,该目标物信息是所述无人飞行器上的影像设备追踪的目标物的信息;
一个或者多个处理器,用于单独地或者相共同地,根据远程终端的一个或者多个飞行指令沿着所述飞行线路移动时,自动调整所述无人飞行器或者影像设备中的至少其中之一,以根据所述目标物信息追踪所述目标物,从而维持该目标物在所述影像设备所捕获的一个或者多个影像中的预设位置及/或尺寸。
4.如权利要求3所述系统,其特征在于,所述影像设备包括相机或者摄录机。
5.如权利要求3所述系统,其特征在于,所述一个或者多个飞行指令用于控制无人飞行器的速度、位置或者姿态。
6.如权利要求3所述系统,其特征在于,所述目标物相对于参照物是静止的。
7.如权利要求3所述系统,其特征在于,所述目标物相对于参照物是运动的。
8.如权利要求3所述系统,其特征在于,所述目标物信息包括初始目标物信息。
9.如权利要求8所述系统,其特征在于,所述初始目标物信息包括目标物在所述影像设备所捕获的影像中的初始位置或者初始尺寸。
10.如权利要求3所述系统,其特征在于,所述目标物信息包括目标物类型信息。
11.如权利要求10所述系统,其特征在于,所述根据目标物信息追踪目标物包括基于所述目标物类型信息,在所述影像设备所捕获的一个或者多个影像中,利用影像识别技术,识别所追踪的目标物。
12.如权利要求10所述系统,其特征在于,所述目标物类型信息包括颜色、纹理、或者样式信息。
13.如权利要求3所述系统,其特征在于,所述目标物信息包括预期目标物信息。
14.如权利要求13所述系统,其特征在于,所述预期目标物信息包括目标物在所述影像设备所捕获的影像中的预期位置或者预期尺寸。
15.如权利要求14所述系统,其特征在于,所述目标物的预期尺寸与该目标物的初始尺寸相同。
16.如权利要求14所述系统,其特征在于,所述目标物的预期位置与该目标物的初始位置相同。
17.如权利要求14所述系统,其特征在于,所述根据目标物信息追踪目标物包括在预设公差内,在所述影像设备捕获的一个或者多个影像中,维持目标物的预期位置或者预期尺寸。
18.如权利要求3所述系统,其特征在于,所述影像设备通过承载体搭载在所述无人飞行器上,以允许影像设备相对于无人飞行器运动。
19.如权利要求18所述系统,其特征在于,所述承载体用于使得影像设备相对于所述无人飞行器绕着至少两个轴旋转。
20.如权利要求18所述系统,其特征在于,所述根据目标物信息追踪目标物包括当无人飞行器根据远程终端的一个或者多个飞行指令沿着所述飞行线路运动时,自动调整所述无人飞行器、所述承载体、或者所述影像设备中的至少一个。
21.如权利要求18所述系统,其特征在于,所述目标物信息包括预期目标物信息,以及根据目标物信息追踪目标物包括:
基于影像设备捕获的一个或者多个影像确定当前目标物信息;
侦测当前目标物信息与预期目标物信息之间的偏差;
计算无人飞行器、承载体或者影像设备的调整量,以纠正所述偏差。
22.如权利要求21所述系统,其特征在于,所述偏差是关于目标物位置的改变,所述计算的调整量是关于无人飞行器的角速度。
23.如权利要求22所述系统,其特征在于,所述角速度是相对于无人飞行器的航向轴。
24.如权利要求22所述系统,其特征在于,所述角速度是相对于无人飞行器的俯仰轴。
25.如权利要求21所述系统,其特征在于,所述偏差是关于目标物位置的改变,以及所述计算的调整量是关于影像设备相对于无人飞行器的角速度。
26.如权利要求25所述系统,其特征在于,所述角速度是相对于影像设备的航向轴。
27.如权利要求25所述系统,其特征在于,所述角速度是相对于影像设备的俯仰轴。
28.如权利要求25所述系统,其特征在于,所述计算的调整量用于产生承载体的控制信号,以使影像设备相对于无人飞行器产生运动。
29.如权利要求21所述系统,其特征在于,所述偏差是关于目标物尺寸的改变,所述计算的调整量是关于无人飞行器的线速度。
30.如权利要求21所述系统,其特征在于,所述偏差是关于目标物尺寸的改变,所述计算的调整量是关于影像设备的一个或者多个参数。
31.如权利要求30所述系统,其特征在于,所述影像设备的一个或者多个参数包括焦距、变焦、或者焦点。
32.如权利要求21所述系统,其特征在于,所述计算的调整量被限制为预设范围。
33.如权利要求32所述系统,其特征在于,所述预设范围对应控制系统的操纵量的预设范围。
34.如权利要求33所述系统,其特征在于,所述控制系统包括所述无人飞行器的飞行控制系统或者所述承载体的控制系统。
35.如权利要求32所述系统,其特征在于,如果所述调整量落到所述预设范围之外,则提供警告信号。
36.如权利要求21所述系统,其特征在于,追踪所述目标物包括将所述计算的调整量与预设的最大阈值相比较,并且当所述计算的调整量超过所述预设的最大阈值时,提供该预设的最大阈值。
37.如权利要求32所述系统,其特征在于,所述预设的最大阈值包括所述无人飞行器或者影像设备的最大角速度或者最大线速度。
38.如权利要求21所述系统,其特征在于,追踪所述目标物包括将所述计算的调整量与预设的最小阈值相比较,并且当所述计算的调整量小于所述预设的最大阈值时,提供该预设的最小阈值。
39.如权利要求38所述系统,其特征在于,所述预设的最小阈值包括所述无人飞行器或者影像设备的最小角速度或者最小线速度。
40.如权利要求3所述系统,其特征在于,所述目标物信息接收自远程用户可访问的远程控制设备。
41.如权利要求40所述系统,其特征在于,所述一个或者多个飞行指令接收自一个相同的远程控制设备。
42.如权利要求40所述系统,其特征在于,所述一个或者多个飞行指令接收自不同的远程控制设备。
43.如权利要求40所述系统,其特征在于,所述远程控制设备用于接收用户通过触摸屏、操纵杆、键盘、鼠标或者触控笔的输入。
44.如权利要求40所述系统,其特征在于,所述远程控制设备用于接收用户通过可穿戴设备的输入。
45.如权利要求40所述系统,其特征在于,所述远程控制设备用于:
从无人飞行器接收影像设备捕获的一个或者多个影像;
显示所述一个或者多个影像;
接收用户从所显示的影像中选择的目标物;
基于用户选择的目标物,产生目标物的目标物信息;
将所述目标物信息传送给无人飞行器。
46.如权利要求41所述系统,其特征在于,所述远程控制设备进一步用于基于用户的输入产生一个或者多个飞行指令,以及将该飞行指令传送给所述无人飞行器。
47.如权利要求41所述系统,其特征在于,所述远程控制设备进一步用于接收关于目标物的追踪信息,以及显示具有所述追踪信息的一个或者多个影像。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710402023.9A CN107291104A (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406022.1A CN107168352B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710862502.9A CN107577247B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406023.6A CN107015572B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710862840.2A CN107703963B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/083315 WO2016015251A1 (en) | 2014-07-30 | 2014-07-30 | Systems and methods for target tracking |
Related Child Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710862840.2A Division CN107703963B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710402023.9A Division CN107291104A (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406023.6A Division CN107015572B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710862502.9A Division CN107577247B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406022.1A Division CN107168352B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105518555A CN105518555A (zh) | 2016-04-20 |
CN105518555B true CN105518555B (zh) | 2017-11-03 |
Family
ID=54290321
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710862502.9A Active CN107577247B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710862840.2A Active CN107703963B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406022.1A Active CN107168352B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201480018129.3A Active CN105518555B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406023.6A Active CN107015572B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710402023.9A Pending CN107291104A (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710862502.9A Active CN107577247B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710862840.2A Active CN107703963B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710406022.1A Active CN107168352B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710406023.6A Active CN107015572B (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
CN201710402023.9A Pending CN107291104A (zh) | 2014-07-30 | 2014-07-30 | 目标追踪系统及方法 |
Country Status (5)
Country | Link |
---|---|
US (7) | US9164506B1 (zh) |
EP (2) | EP3060966B1 (zh) |
JP (1) | JP6784434B2 (zh) |
CN (6) | CN107577247B (zh) |
WO (1) | WO2016015251A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102236339B1 (ko) * | 2016-10-24 | 2021-04-02 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 이미징 기기로 캡처한 이미지를 제어하기 위한 시스템 및 방법 |
Families Citing this family (281)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2511658A1 (de) * | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Vermessungssystem und Verfahren zur Neupunktbestimmung |
US10196088B2 (en) * | 2011-04-19 | 2019-02-05 | Ford Global Technologies, Llc | Target monitoring system and method |
US9014874B2 (en) * | 2013-01-29 | 2015-04-21 | Foster-Miller, Inc. | Tactical robot controller |
DK2991897T3 (da) | 2013-05-03 | 2020-03-09 | Aerovironment Inc | Luftfartøj med vertikal takeoff og landing (vtol) |
US9769387B1 (en) * | 2013-11-05 | 2017-09-19 | Trace Live Network Inc. | Action camera system for unmanned aerial vehicle |
US10240930B2 (en) | 2013-12-10 | 2019-03-26 | SZ DJI Technology Co., Ltd. | Sensor fusion |
US10133548B2 (en) * | 2014-01-27 | 2018-11-20 | Roadwarez Inc. | System and method for providing mobile personal security platform |
US9875454B2 (en) * | 2014-05-20 | 2018-01-23 | Verizon Patent And Licensing Inc. | Accommodating mobile destinations for unmanned aerial vehicles |
CN107577247B (zh) | 2014-07-30 | 2021-06-25 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
EP3175309B1 (en) * | 2014-08-01 | 2020-06-17 | Signify Holding B.V. | System, device for creating an aerial image |
US9928878B2 (en) * | 2014-08-13 | 2018-03-27 | Intel Corporation | Techniques and apparatus for editing video |
US9442485B1 (en) | 2014-08-13 | 2016-09-13 | Trace Live Network Inc. | Pixel based image tracking system for unmanned aerial vehicle (UAV) action camera system |
EP3008535B1 (en) | 2014-09-05 | 2018-05-16 | SZ DJI Technology Co., Ltd. | Context-based flight mode selection |
WO2016033795A1 (en) | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd. | Velocity control for an unmanned aerial vehicle |
WO2016033797A1 (en) | 2014-09-05 | 2016-03-10 | SZ DJI Technology Co., Ltd. | Multi-sensor environmental mapping |
US10102590B1 (en) | 2014-10-02 | 2018-10-16 | United Services Automobile Association (Usaa) | Systems and methods for unmanned vehicle management |
US11688014B1 (en) | 2014-10-02 | 2023-06-27 | United Services Automobile Association (Usaa) | Systems and methods for unmanned vehicle management |
JP6387782B2 (ja) | 2014-10-17 | 2018-09-12 | ソニー株式会社 | 制御装置、制御方法及びコンピュータプログラム |
US10334158B2 (en) * | 2014-11-03 | 2019-06-25 | Robert John Gove | Autonomous media capturing |
JP6310093B2 (ja) * | 2014-11-12 | 2018-04-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 目標物体の検出方法、検出装置及びロボット |
US10191487B2 (en) * | 2014-11-14 | 2019-01-29 | Lg Electronics Inc. | Control device and control method for flying bot |
US10997544B1 (en) | 2014-12-11 | 2021-05-04 | Amazon Technologies, Inc. | Delivery location identifiers |
AU2015367226B2 (en) * | 2014-12-18 | 2021-06-03 | Fugro Advance Pty Ltd. | Imaging system |
US9305280B1 (en) | 2014-12-22 | 2016-04-05 | Amazon Technologies, Inc. | Airborne fulfillment center utilizing unmanned aerial vehicles for item delivery |
FR3031402B1 (fr) * | 2015-01-02 | 2018-09-07 | Squadrone System | Procede de pilotage automatique d'un drone a voilure tournante pour operer des mouvements de camera par une camera embarquee |
US11532050B1 (en) | 2015-01-27 | 2022-12-20 | United Services Automobile Association (Usaa) | Unmanned vehicle service delivery |
US10850866B2 (en) | 2015-02-11 | 2020-12-01 | Aerovironment, Inc. | Pod cover system for a vertical take-off and landing (VTOL) unmanned aerial vehicle (UAV) |
WO2016130711A1 (en) * | 2015-02-11 | 2016-08-18 | Aerovironment, Inc. | Pod operating system for a vertical take-off and landing (vtol) unmanned aerial vehicle (uav) |
US10336470B2 (en) | 2015-02-11 | 2019-07-02 | Aerovironment, Inc. | Pod launch and landing system for vertical take-off and landing (VTOL)unmanned aerial vehicles (UAVs) |
US9977435B2 (en) | 2015-02-11 | 2018-05-22 | Aeroviroment, Inc. | Survey migration system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVS) |
US9880563B2 (en) | 2015-02-11 | 2018-01-30 | Aerovironment, Inc. | Geographic survey system for vertical take-off and landing (VTOL) unmanned aerial vehicles (UAVs) |
EP3062066A1 (en) * | 2015-02-26 | 2016-08-31 | Hexagon Technology Center GmbH | Determination of object data by template-based UAV control |
JP6302860B2 (ja) * | 2015-03-03 | 2018-03-28 | ヤンマー株式会社 | 船舶 |
US10063772B2 (en) * | 2015-03-19 | 2018-08-28 | Casio Computer Co., Ltd. | Image processing apparatus that sends image to external apparatus |
TWI573104B (zh) * | 2015-03-25 | 2017-03-01 | 宇瞻科技股份有限公司 | 室內監控系統及其方法 |
US9939810B1 (en) | 2015-04-17 | 2018-04-10 | United Services Automobile Association | Indoor drone flight awareness system |
US10696414B2 (en) | 2015-04-21 | 2020-06-30 | Gopro, Inc. | Aerial capture platform |
EP3286079B1 (en) | 2015-04-21 | 2021-09-08 | GoPro, Inc. | Aerial capture platform |
DE102015006233B4 (de) * | 2015-05-18 | 2020-12-03 | Rheinmetall Air Defence Ag | Verfahren zur Bestimmung der Flugbahn einer Fremddrohne |
US11140326B2 (en) | 2015-05-22 | 2021-10-05 | The United States Of America, As Represented By The Secretary Of The Navy | Aerial video based point, distance, and velocity real-time measurement system |
EP4198626A1 (en) | 2015-05-27 | 2023-06-21 | GoPro, Inc. | Camera system using stabilizing gimbal |
US9741255B1 (en) | 2015-05-28 | 2017-08-22 | Amazon Technologies, Inc. | Airborne unmanned aerial vehicle monitoring station |
EP3101889A3 (en) | 2015-06-02 | 2017-03-08 | LG Electronics Inc. | Mobile terminal and controlling method thereof |
WO2016197307A1 (en) * | 2015-06-08 | 2016-12-15 | SZ DJI Technology Co., Ltd. | Methods and apparatus for image processing |
US10250792B2 (en) * | 2015-08-10 | 2019-04-02 | Platypus IP PLLC | Unmanned aerial vehicles, videography, and control methods |
US10269257B1 (en) | 2015-08-11 | 2019-04-23 | Gopro, Inc. | Systems and methods for vehicle guidance |
CA2996709A1 (en) * | 2015-08-27 | 2017-03-02 | Dronsystems Limited | A highly automated system of air traffic control (atm) for at least one unmanned aerial vehicle (unmanned aerial vehicles uav) |
WO2017071143A1 (en) | 2015-10-30 | 2017-05-04 | SZ DJI Technology Co., Ltd. | Systems and methods for uav path planning and control |
EP3353706A4 (en) * | 2015-09-15 | 2019-05-08 | SZ DJI Technology Co., Ltd. | SYSTEM AND METHOD FOR MONITORING UNIFORM TARGET TRACKING |
WO2017066927A1 (en) | 2015-10-20 | 2017-04-27 | SZ DJI Technology Co., Ltd. | Systems, methods, and devices for setting camera parameters |
US10033928B1 (en) | 2015-10-29 | 2018-07-24 | Gopro, Inc. | Apparatus and methods for rolling shutter compensation for multi-camera systems |
US10587790B2 (en) * | 2015-11-04 | 2020-03-10 | Tencent Technology (Shenzhen) Company Limited | Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle |
US9896205B1 (en) | 2015-11-23 | 2018-02-20 | Gopro, Inc. | Unmanned aerial vehicle with parallax disparity detection offset from horizontal |
US9792709B1 (en) | 2015-11-23 | 2017-10-17 | Gopro, Inc. | Apparatus and methods for image alignment |
US9973696B1 (en) | 2015-11-23 | 2018-05-15 | Gopro, Inc. | Apparatus and methods for image alignment |
US9848132B2 (en) | 2015-11-24 | 2017-12-19 | Gopro, Inc. | Multi-camera time synchronization |
CN105373132A (zh) * | 2015-11-26 | 2016-03-02 | 北京浩恒征途航空科技有限公司 | 一种基于自动巡航无人机的低空遥感系统及遥感方法 |
CN105460217B (zh) * | 2015-12-03 | 2017-11-14 | 北京奇虎科技有限公司 | 一种基于无人飞行器的续拍方法和无人飞行器 |
EP4342792A3 (en) * | 2015-12-09 | 2024-04-17 | SZ DJI Technology Co., Ltd. | Systems and methods for uav flight control |
CN105578034A (zh) * | 2015-12-10 | 2016-05-11 | 深圳市道通智能航空技术有限公司 | 一种对目标进行跟踪拍摄的控制方法、控制装置及系统 |
JP6685714B2 (ja) * | 2015-12-15 | 2020-04-22 | キヤノン株式会社 | 移動撮像装置の制御装置、移動撮像装置、および移動撮像装置の制御方法 |
JP6685713B2 (ja) * | 2015-12-15 | 2020-04-22 | キヤノン株式会社 | 撮像システムおよびその制御方法、通信装置、移動撮像装置 |
DE102015122183B4 (de) | 2015-12-18 | 2018-12-06 | Antony Pfoertzsch | Vorrichtung und Verfahren für ein unbemanntes Flugobjekt |
TWI557526B (zh) * | 2015-12-18 | 2016-11-11 | 林其禹 | 自拍無人飛機系統及其執行方法 |
US9720413B1 (en) | 2015-12-21 | 2017-08-01 | Gopro, Inc. | Systems and methods for providing flight control for an unmanned aerial vehicle based on opposing fields of view with overlap |
US9663227B1 (en) | 2015-12-22 | 2017-05-30 | Gopro, Inc. | Systems and methods for controlling an unmanned aerial vehicle |
CN105425614B (zh) * | 2015-12-25 | 2019-01-29 | 北京经纬恒润科技有限公司 | 一种目标跟踪系统的测试验证方法、装置及系统 |
WO2017114504A1 (en) * | 2015-12-31 | 2017-07-06 | Wellen Sham | Facilitating wide-view video conferencing through a uav network |
US10454576B2 (en) | 2015-12-31 | 2019-10-22 | Wellen Sham | UAV network |
US9955115B2 (en) | 2015-12-31 | 2018-04-24 | Wellen Sham | Facilitating wide view video conferencing through a drone network |
US9826256B2 (en) | 2015-12-31 | 2017-11-21 | Wellen Sham | Facilitating multimedia information delivery through a UAV network |
US9800321B2 (en) * | 2015-12-31 | 2017-10-24 | Wellen Sham | Facilitating communication with a vehicle via a UAV |
US9786165B2 (en) | 2015-12-31 | 2017-10-10 | Wellen Sham | Facilitating location positioning service through a UAV network |
US9630714B1 (en) | 2016-01-04 | 2017-04-25 | Gopro, Inc. | Systems and methods for providing flight control for an unmanned aerial vehicle based on tilted optical elements |
US9758246B1 (en) | 2016-01-06 | 2017-09-12 | Gopro, Inc. | Systems and methods for adjusting flight control of an unmanned aerial vehicle |
US10169856B1 (en) | 2016-01-27 | 2019-01-01 | United Services Automobile Association (Usaa) | Laser-assisted image processing |
US10416667B2 (en) * | 2016-02-03 | 2019-09-17 | Sony Corporation | System and method for utilization of multiple-camera network to capture static and/or motion scenes |
CN108885449A (zh) * | 2016-02-09 | 2018-11-23 | 福特全球技术公司 | 用于自主车辆跟随对象的设备和方法 |
US9743060B1 (en) | 2016-02-22 | 2017-08-22 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
US9973746B2 (en) | 2016-02-17 | 2018-05-15 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
US9602795B1 (en) | 2016-02-22 | 2017-03-21 | Gopro, Inc. | System and method for presenting and viewing a spherical video segment |
DK3398022T3 (da) | 2016-02-26 | 2021-02-01 | Sz Dji Technology Co Ltd | Systemer og fremgangsmåder til tilpasning af uav-bane |
US9858821B2 (en) * | 2016-02-26 | 2018-01-02 | Ford Global Technologies, Llc | Autonomous vehicle passenger locator |
CN113589833A (zh) * | 2016-02-26 | 2021-11-02 | 深圳市大疆创新科技有限公司 | 用于视觉目标跟踪的方法 |
JP6933656B2 (ja) | 2016-02-29 | 2021-09-08 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 飛行デバイスの動き制御のための方法、システムおよびコンピュータ可読媒体 |
CN109074090A (zh) * | 2016-02-29 | 2018-12-21 | 深圳市大疆创新科技有限公司 | 无人机硬件架构 |
WO2017147792A1 (en) * | 2016-03-01 | 2017-09-08 | SZ DJI Technology Co., Ltd. | Methods and systems for target tracking |
JP6418181B2 (ja) * | 2016-03-04 | 2018-11-07 | トヨタ自動車株式会社 | 遠隔操作システム、車両及び遠隔操作装置 |
US10690772B2 (en) * | 2016-03-11 | 2020-06-23 | Raytheon Bbn Technologies Corp. | LIDAR site model to aid counter drone system |
CN105872396B (zh) * | 2016-03-30 | 2019-04-12 | 东斓视觉科技发展(北京)有限公司 | 摄影方法及装置 |
CN105915783B (zh) * | 2016-03-30 | 2019-01-01 | 东斓视觉科技发展(北京)有限公司 | 摄影方法及装置 |
CN105866782B (zh) * | 2016-04-04 | 2018-08-17 | 上海大学 | 一种基于激光雷达的运动目标检测系统及方法 |
JP6308238B2 (ja) * | 2016-04-07 | 2018-04-11 | カシオ計算機株式会社 | 飛行型カメラ装置、飛行型カメラシステム、端末装置、飛行型カメラ装置の制御方法およびプログラム |
US10618673B2 (en) | 2016-04-15 | 2020-04-14 | Massachusetts Institute Of Technology | Systems and methods for dynamic planning and operation of autonomous systems using image observation and information theory |
CN105891908B (zh) * | 2016-04-19 | 2018-04-13 | 华南农业大学 | 一种适用于无人机的机载气象站装置及其使用方法 |
CN107305374A (zh) * | 2016-04-22 | 2017-10-31 | 优利科技有限公司 | 无人机航拍系统 |
CN105959625B (zh) * | 2016-05-04 | 2020-04-14 | 北京博瑞云飞科技发展有限公司 | 控制无人机追踪拍摄的方法及装置 |
US10204417B2 (en) * | 2016-05-10 | 2019-02-12 | International Business Machines Corporation | Interactive video generation |
WO2017201697A1 (en) * | 2016-05-25 | 2017-11-30 | SZ DJI Technology Co., Ltd. | Techniques for image recognition-based aerial vehicle navigation |
JP6988146B2 (ja) * | 2016-05-25 | 2022-01-05 | ソニーグループ株式会社 | 演算処理装置及び演算処理方法 |
CN107466384A (zh) * | 2016-05-25 | 2017-12-12 | 深圳市大疆创新科技有限公司 | 一种追踪目标的方法及装置 |
CN106054871A (zh) * | 2016-05-31 | 2016-10-26 | 深圳市元征科技股份有限公司 | 一种无人机拍摄器方向调整方法及智能穿戴设备 |
KR20170136750A (ko) | 2016-06-02 | 2017-12-12 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
CN109477715A (zh) * | 2016-06-06 | 2019-03-15 | 深圳市大疆灵眸科技有限公司 | 载体辅助跟踪 |
CN109477607A (zh) | 2016-06-06 | 2019-03-15 | 深圳市大疆灵眸科技有限公司 | 用于跟踪的图像处理 |
JP6500849B2 (ja) * | 2016-06-23 | 2019-04-17 | カシオ計算機株式会社 | 撮像装置、撮像方法及びプログラム |
US10610145B2 (en) * | 2016-06-30 | 2020-04-07 | Wellen Sham | Safety driving system |
CN109416536B (zh) * | 2016-07-04 | 2022-03-22 | 深圳市大疆创新科技有限公司 | 用于自动跟踪和导航的系统和方法 |
WO2018014254A1 (en) * | 2016-07-20 | 2018-01-25 | SZ DJI Technology Co., Ltd. | Method and apparatus for zooming relative to an object copyright notice |
FR3054334A1 (fr) * | 2016-07-22 | 2018-01-26 | Parrot Drones | Systeme autonome de prise de vues animees comprenant un drone et une station au sol, et procede associe. |
CN109479119B (zh) | 2016-07-22 | 2021-03-05 | 深圳市大疆创新科技有限公司 | Uav交互视频广播的系统与方法 |
FR3054336A1 (fr) * | 2016-07-22 | 2018-01-26 | Parrot Drones | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et localisation amelioree de la cible. |
CN106125761B (zh) * | 2016-07-25 | 2019-02-19 | 深圳市鸿专科技有限公司 | 无人机导航系统和导航方法 |
CN106292733B (zh) * | 2016-07-26 | 2019-05-10 | 北京电子工程总体研究所 | 一种基于位置信息的触摸式跟踪确认系统及方法 |
WO2018018514A1 (en) * | 2016-07-28 | 2018-02-01 | SZ DJI Technology Co., Ltd. | Target-based image exposure adjustment |
CN109716256A (zh) * | 2016-08-06 | 2019-05-03 | 深圳市大疆创新科技有限公司 | 用于跟踪目标的系统和方法 |
US9934758B1 (en) | 2016-09-21 | 2018-04-03 | Gopro, Inc. | Systems and methods for simulating adaptation of eyes to changes in lighting conditions |
CN107223219B (zh) * | 2016-09-26 | 2020-06-23 | 深圳市大疆创新科技有限公司 | 控制方法、控制设备和运载系统 |
WO2018058309A1 (zh) * | 2016-09-27 | 2018-04-05 | 深圳市大疆创新科技有限公司 | 控制方法、控制装置、电子装置及飞行器控制系统 |
WO2018061172A1 (ja) * | 2016-09-30 | 2018-04-05 | 株式会社オプティム | 撮像角度調整システム、撮像角度調整方法及びプログラム |
CN106375669B (zh) * | 2016-09-30 | 2019-08-06 | 天津远度科技有限公司 | 一种稳像方法、装置和无人机 |
US10424130B2 (en) * | 2016-10-04 | 2019-09-24 | Walmart Apollo, Llc | System and methods for drone-based vehicle status determination |
WO2018067544A2 (en) | 2016-10-04 | 2018-04-12 | Wal-Mart Stores, Inc. | Systems and methods for autonomous drone navigation |
FR3056921B1 (fr) * | 2016-10-05 | 2018-11-23 | Parrot Drones | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible. |
US10268896B1 (en) | 2016-10-05 | 2019-04-23 | Gopro, Inc. | Systems and methods for determining video highlight based on conveyance positions of video content capture |
JP6848320B2 (ja) * | 2016-10-06 | 2021-03-24 | 富士ゼロックス株式会社 | 水中移動体 |
CN108702442B (zh) * | 2016-10-14 | 2021-04-16 | 深圳市大疆创新科技有限公司 | 用于时刻捕获的系统和方法 |
WO2018072072A1 (zh) * | 2016-10-18 | 2018-04-26 | 深圳市大疆灵眸科技有限公司 | 连接装置及具有该连接装置的无人机 |
CN106485736B (zh) * | 2016-10-27 | 2022-04-12 | 深圳市道通智能航空技术股份有限公司 | 一种无人机全景视觉跟踪方法、无人机以及控制终端 |
DK3538965T3 (da) * | 2016-11-11 | 2022-03-21 | Aerovironment Inc | Sikkerhedssystem til drift af et ubemandet luftfartøj |
WO2018094477A1 (en) * | 2016-11-28 | 2018-05-31 | Michael Amor Griffin | A remote control device and system |
CN107087427B (zh) | 2016-11-30 | 2019-06-07 | 深圳市大疆创新科技有限公司 | 飞行器的控制方法、装置和设备以及飞行器 |
CN108616706A (zh) * | 2016-12-10 | 2018-10-02 | 南京理工大学 | 具有图像处理能力的cmos图像传感器系统 |
US11275390B2 (en) | 2016-12-15 | 2022-03-15 | Powervision Robot Inc. | Control system and method for drone with remote controller |
CA3047316A1 (en) | 2016-12-21 | 2018-06-28 | Walmart Apollo, Llc | Systems and methods for delivering products via unmanned aerial vehicles to delivery locations designated by customers |
CN108450032B (zh) * | 2016-12-22 | 2021-03-02 | 深圳市大疆创新科技有限公司 | 飞行控制方法和装置 |
CN110525650B (zh) * | 2016-12-22 | 2021-05-25 | 深圳市大疆创新科技有限公司 | 无人机及其控制方法 |
CN108513560B (zh) * | 2016-12-23 | 2019-07-05 | 瑞典爱立信有限公司 | 管制空域中的无人飞行载具 |
CN106741937A (zh) * | 2017-01-03 | 2017-05-31 | 上海量明科技发展有限公司 | 无人机型通话装置及其通话方法 |
WO2018148195A1 (en) * | 2017-02-08 | 2018-08-16 | Marquette University | Robotic tracking navigation with data fusion |
WO2018145262A1 (en) * | 2017-02-08 | 2018-08-16 | SZ DJI Technology Co., Ltd. | Methods and system for controlling a movable object |
CN110239728B (zh) * | 2017-02-08 | 2023-12-05 | 李建勋 | 用于野生动物研究的智能型无人机 |
JP6950192B2 (ja) * | 2017-02-10 | 2021-10-13 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
US10194101B1 (en) | 2017-02-22 | 2019-01-29 | Gopro, Inc. | Systems and methods for rolling shutter compensation using iterative process |
CN107031842B (zh) * | 2017-03-17 | 2019-03-26 | 北京航空航天大学 | 一种喷水飞行器 |
CN106991147A (zh) * | 2017-03-27 | 2017-07-28 | 重庆大学 | 一种植物识别系统及识别方法 |
CN111208906B (zh) * | 2017-03-28 | 2021-12-24 | 联想(北京)有限公司 | 呈现图像的方法和显示系统 |
CN114510079A (zh) * | 2017-03-31 | 2022-05-17 | 深圳市大疆创新科技有限公司 | 一种无人机的飞行控制方法及无人机 |
WO2018186750A1 (en) * | 2017-04-05 | 2018-10-11 | Blueye Robotics As | Camera assisted control system for an underwater vehicle |
CN108700888A (zh) * | 2017-04-18 | 2018-10-23 | 深圳市大疆创新科技有限公司 | 无人飞行器的控制方法、飞行控制器及无人飞行器 |
CN114815863A (zh) * | 2017-04-27 | 2022-07-29 | 深圳市大疆创新科技有限公司 | 无人机的控制方法、设备及障碍物的提示方法、设备 |
WO2018195979A1 (zh) * | 2017-04-28 | 2018-11-01 | 深圳市大疆创新科技有限公司 | 一种跟踪控制方法、装置及飞行器 |
WO2018195996A1 (en) * | 2017-04-28 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Multi-object tracking based on lidar point cloud |
EP3619104B1 (en) * | 2017-05-04 | 2021-12-15 | Carnegie Mellon University | State estimation and localization for rov-based structural inspection |
CN107128492B (zh) * | 2017-05-05 | 2019-09-20 | 成都通甲优博科技有限责任公司 | 一种基于人头检测的无人机跟踪方法、装置及无人机 |
EP3610469A4 (en) | 2017-05-10 | 2021-04-28 | Grabango Co. | SERIES CONFIGURED CAMERA ARRANGEMENT FOR EFFICIENT USE |
WO2018207366A1 (ja) * | 2017-05-12 | 2018-11-15 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 制御装置、撮像装置、撮像システム、移動体、制御方法、及びプログラム |
DE102017208333A1 (de) * | 2017-05-17 | 2018-11-22 | Jenoptik Robot Gmbh | Verfahren zum Überwachen eines Fahrzeugs mittels zumindest eines unbemannten Luftfahrzeugs, Steuergerät und unbemanntes Luftfahrzeug |
WO2018214077A1 (zh) * | 2017-05-24 | 2018-11-29 | 深圳市大疆创新科技有限公司 | 拍摄方法及装置、图像处理方法及装置 |
WO2018214078A1 (zh) * | 2017-05-24 | 2018-11-29 | 深圳市大疆创新科技有限公司 | 拍摄控制方法及装置 |
JP6875196B2 (ja) * | 2017-05-26 | 2021-05-19 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォーム、飛行体、支持装置、携帯端末、撮像補助方法、プログラム、及び記録媒体 |
WO2018218640A1 (en) | 2017-06-02 | 2018-12-06 | SZ DJI Technology Co., Ltd. | Systems and methods for multi-target tracking and autofocusing based on deep machine learning and laser radar |
US10139631B1 (en) | 2017-06-05 | 2018-11-27 | Microsoft Technology Licensing, Llc | Apparatus and method of 1:1 matching head mounted display view to head movement that controls articulated camera |
US10484095B2 (en) * | 2017-06-15 | 2019-11-19 | The Aerospace Corporation | Communications relay satellite with a single-axis gimbal |
CN107390985A (zh) * | 2017-07-04 | 2017-11-24 | Tcl移动通信科技(宁波)有限公司 | 移动终端及其触摸屏输入控制方法、及存储介质 |
KR20190009103A (ko) | 2017-07-18 | 2019-01-28 | 삼성전자주식회사 | 외부 객체와의 거리에 기반하여 이동 되는 전자 장치 및 그 제어 방법 |
US10740607B2 (en) | 2017-08-18 | 2020-08-11 | Autel Robotics Co., Ltd. | Method for determining target through intelligent following of unmanned aerial vehicle, unmanned aerial vehicle and remote control |
CN113762252B (zh) * | 2017-08-18 | 2023-10-24 | 深圳市道通智能航空技术股份有限公司 | 无人机智能跟随目标确定方法、无人机和遥控器 |
JP7057637B2 (ja) | 2017-08-23 | 2022-04-20 | キヤノン株式会社 | 制御装置、制御システム、制御方法、プログラム、及び記憶媒体 |
US11074827B2 (en) * | 2017-08-25 | 2021-07-27 | Aurora Flight Sciences Corporation | Virtual reality system for aerial vehicle |
US10144504B1 (en) * | 2017-09-01 | 2018-12-04 | Kitty Hawk Corporation | Decoupled hand controls for aircraft with vertical takeoff and landing and forward flight capabilities |
CN107590450A (zh) * | 2017-09-01 | 2018-01-16 | 歌尔科技有限公司 | 一种运动目标的标记方法、装置和无人机 |
EP3480118B1 (en) * | 2017-09-06 | 2021-03-03 | Autel Robotics Co., Ltd. | Aerial vehicle landing method |
US10606260B2 (en) * | 2017-09-27 | 2020-03-31 | Intel IP Corporation | Ocular navigation of unmanned aerial vehicle |
AU2017245322A1 (en) * | 2017-10-10 | 2019-05-02 | Canon Kabushiki Kaisha | Method, system and apparatus for selecting frames of a video sequence |
CN109708636B (zh) * | 2017-10-26 | 2021-05-14 | 广州极飞科技股份有限公司 | 导航图配置方法、避障方法以及装置、终端、无人飞行器 |
CN110049921B (zh) * | 2017-11-03 | 2022-12-23 | 深圳市大疆创新科技有限公司 | 用于红外跟踪的方法和系统 |
CN107908195B (zh) * | 2017-11-06 | 2021-09-21 | 深圳市道通智能航空技术股份有限公司 | 目标追踪方法、装置、追踪器及计算机可读存储介质 |
WO2019092790A1 (ja) * | 2017-11-07 | 2019-05-16 | ヤマハ株式会社 | 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム |
CN108447073B (zh) * | 2017-11-22 | 2020-09-08 | 西北工业大学 | 一种基于dsp的无人空中加受油激光视觉跟踪方法 |
TWI657011B (zh) | 2017-11-30 | 2019-04-21 | 財團法人工業技術研究院 | 無人機、無人機控制系統及控制方法 |
CN108089205B (zh) * | 2017-12-21 | 2021-02-02 | 成都大学 | 一种无人机飞控人员定位系统 |
CN107943088A (zh) * | 2017-12-22 | 2018-04-20 | 广州亿航智能技术有限公司 | 一种控制无人机的方法及其系统 |
CN109074103B (zh) * | 2017-12-23 | 2021-12-24 | 深圳市大疆创新科技有限公司 | 一种云台校准方法及云台设备 |
CN108284855A (zh) * | 2017-12-27 | 2018-07-17 | 河南辉煌信通软件有限公司 | 一种基于无人机的轨道巡检系统 |
US10827123B1 (en) | 2018-01-05 | 2020-11-03 | Gopro, Inc. | Modular image capture systems |
JP6950538B2 (ja) * | 2018-01-11 | 2021-10-13 | トヨタ自動車株式会社 | 車両撮影支援装置及びプログラム |
CN110622089A (zh) * | 2018-01-22 | 2019-12-27 | 深圳市大疆创新科技有限公司 | 跟随控制方法、控制终端及无人机 |
WO2019140699A1 (en) | 2018-01-22 | 2019-07-25 | SZ DJI Technology Co., Ltd. | Methods and system for multi-target tracking |
CN108227751B (zh) * | 2018-01-29 | 2020-12-29 | 广州亿航智能技术有限公司 | 一种无人机的降落方法及系统 |
TWI641857B (zh) * | 2018-02-09 | 2018-11-21 | 宏碁股份有限公司 | 電子裝置以及定位方法 |
CN110221618B (zh) * | 2018-03-01 | 2023-05-30 | 北京京东乾石科技有限公司 | 飞行监控方法和装置及计算机可读存储介质 |
JP7028309B2 (ja) * | 2018-03-13 | 2022-03-02 | 日本電気株式会社 | 移動体誘導装置、移動体誘導方法、及びプログラム |
CN110622080B (zh) * | 2018-03-26 | 2023-07-25 | 深圳市大疆创新科技有限公司 | 无人机的跟踪处理方法及控制终端 |
JP6452183B1 (ja) * | 2018-03-30 | 2019-01-16 | 株式会社amuse oneself | 釣り動画撮像システム |
CN111194433A (zh) * | 2018-04-04 | 2020-05-22 | 深圳市大疆创新科技有限公司 | 用于构图和捕捉图像的方法和系统 |
US11148805B2 (en) * | 2018-04-10 | 2021-10-19 | Government Of The United States, As Represented By The Secretary Of The Army | Enclosure for an unmanned aerial system |
CN108646787B (zh) * | 2018-04-12 | 2021-03-02 | 广州杰赛科技股份有限公司 | 目标追踪方法、装置以及无人机 |
US11372410B2 (en) * | 2018-04-19 | 2022-06-28 | Axon Enterprise, Inc. | Methods and apparatus for regulating a position of a drone |
US11787346B2 (en) | 2018-04-20 | 2023-10-17 | Axon Enterprise, Inc. | Systems and methods for a housing equipment for a security vehicle |
CN108919640B (zh) * | 2018-04-20 | 2020-04-03 | 西北工业大学 | 无人机自适应多目标跟踪的实现方法 |
CN108924473B (zh) * | 2018-04-28 | 2023-07-25 | 广州亿航智能技术有限公司 | 基于无人机巡航模式的预订航拍方法及系统 |
CN108597054A (zh) * | 2018-04-28 | 2018-09-28 | 深圳春沐源控股有限公司 | 防走失巡检方法和防走失巡检系统 |
CN110443825A (zh) * | 2018-05-03 | 2019-11-12 | 香港商女娲创造股份有限公司 | 视觉追踪与人机互动系统及追随系统 |
CN108645403B (zh) * | 2018-05-15 | 2021-03-23 | 中国人民解放军海军工程大学 | 一种基于卫星导航及姿态测量的无人机自动跟拍系统 |
CN108681718B (zh) * | 2018-05-20 | 2021-08-06 | 北京工业大学 | 一种无人机低空目标精准检测识别方法 |
JP6922848B2 (ja) * | 2018-05-24 | 2021-08-18 | 株式会社豊田自動織機 | フォークリフト用遠隔操作システム |
WO2019227309A1 (zh) * | 2018-05-29 | 2019-12-05 | 深圳市大疆创新科技有限公司 | 一种跟踪拍摄方法、设备及存储介质 |
US11255975B2 (en) * | 2018-06-05 | 2022-02-22 | Pony Ai Inc. | Systems and methods for implementing a tracking camera system onboard an autonomous vehicle |
CN108572656A (zh) * | 2018-06-08 | 2018-09-25 | 赫星科技有限公司 | 无人机定位装置以及无人机 |
CN110609562B (zh) * | 2018-06-15 | 2021-07-16 | 华为技术有限公司 | 一种图像信息采集方法和装置 |
CN108958300B (zh) * | 2018-06-26 | 2023-06-20 | 北京小米移动软件有限公司 | 云台控制方法及装置 |
CN110832495A (zh) * | 2018-07-13 | 2020-02-21 | 深圳市大疆创新科技有限公司 | 波浪识别方法、装置、计算机可读存储介质和无人飞行器 |
WO2020023269A1 (en) * | 2018-07-25 | 2020-01-30 | Cnh Industrial America Llc | Aerial monitoring system for agricultural equipment |
JP6542445B1 (ja) | 2018-07-31 | 2019-07-10 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
US10946883B2 (en) * | 2018-08-09 | 2021-03-16 | Alstom Transport Technologies | Train detection system for a railway track, a method for detecting a train on a railway track, and a controller for a train detection system for detecting a train on a railway track |
CN109062842B (zh) * | 2018-08-15 | 2020-10-23 | 深圳市道通智能航空技术有限公司 | 一种遥控器与移动终端的通信方法、装置和遥控器 |
JP2020027574A (ja) * | 2018-08-17 | 2020-02-20 | 株式会社東芝 | 自律移動装置、方法及び3次元モデリングシステム |
CN109061627B (zh) * | 2018-09-11 | 2021-02-26 | 长光禹辰信息技术与装备(青岛)有限公司 | 一种雷达光电联动系统及其控制方法 |
DE102018123411A1 (de) * | 2018-09-24 | 2020-03-26 | Autel Robotics Europe Gmbh | Zielbeobachtungsverfahren, zugehörige Vorrichtung und System |
CN109240320A (zh) * | 2018-09-27 | 2019-01-18 | 易瓦特科技股份公司 | 无人机控制方法及装置 |
CN109240346A (zh) * | 2018-09-27 | 2019-01-18 | 易瓦特科技股份公司 | 用于跟踪目标对象的方法及装置 |
JP6905504B2 (ja) * | 2018-11-27 | 2021-07-21 | パナソニックi−PROセンシングソリューションズ株式会社 | 警備システム、及び、警備方法 |
CN109120863B (zh) * | 2018-10-23 | 2021-01-01 | Oppo广东移动通信有限公司 | 拍摄方法、装置、存储介质及移动终端 |
CN109376660B (zh) * | 2018-10-26 | 2022-04-08 | 天宇经纬(北京)科技有限公司 | 一种目标监测方法、装置及系统 |
CN109188411B (zh) * | 2018-11-13 | 2022-12-09 | 王鹂辉 | 一种红外闪频追踪系统 |
CN110800280B8 (zh) * | 2018-11-29 | 2022-08-19 | 深圳市大疆创新科技有限公司 | 一种图像传输装置及其装配方法和可移动平台 |
CN109743499A (zh) * | 2018-12-29 | 2019-05-10 | 武汉云衡智能科技有限公司 | 一种应用于图像识别的变焦无人机和变焦无人机控制方法 |
CN109934870B (zh) * | 2019-01-30 | 2021-11-30 | 西安天伟电子系统工程有限公司 | 目标检测方法、装置、设备、计算机设备和存储介质 |
CN109739155B (zh) * | 2019-02-20 | 2021-09-03 | 中国人民解放军91245部队 | 一种人机互动式监视系统及监视方法 |
CN109976156B (zh) * | 2019-03-13 | 2021-08-06 | 南京航空航天大学 | 固定翼无人机栖落机动轨迹的建模与预测控制方法 |
JP6651189B1 (ja) | 2019-03-29 | 2020-02-19 | 株式会社 情報システムエンジニアリング | 機械学習用のデータ構造、学習方法及び情報提供システム |
JP6607590B1 (ja) * | 2019-03-29 | 2019-11-20 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
JP6607589B1 (ja) | 2019-03-29 | 2019-11-20 | 株式会社 情報システムエンジニアリング | 情報提供システム及び情報提供方法 |
JP7256668B2 (ja) * | 2019-03-29 | 2023-04-12 | 本田技研工業株式会社 | 制御装置、制御方法及びプログラム |
WO2020237565A1 (zh) * | 2019-05-30 | 2020-12-03 | 深圳市大疆创新科技有限公司 | 一种目标追踪方法、装置、可移动平台及存储介质 |
US11553640B2 (en) | 2019-06-11 | 2023-01-17 | Cnh Industrial Canada, Ltd. | Agricultural wear monitoring system |
WO2020252688A1 (en) * | 2019-06-19 | 2020-12-24 | Powervision Tech (Suzhou) Ltd. | Target recognition based on image information, system for target recognition based on image information |
SE543438C2 (en) * | 2019-06-20 | 2021-02-16 | Scania Cv Ab | Method, control arrangement and drone for calibration of vehicle sensors |
CN112256009B (zh) * | 2019-07-04 | 2021-11-02 | 深圳市越疆科技有限公司 | 寻线方法、装置、设备及可读存储介质 |
WO2021003657A1 (zh) * | 2019-07-09 | 2021-01-14 | 深圳市大疆创新科技有限公司 | 一种无人机协同作业的控制方法、电子设备及系统 |
CN112230256B (zh) * | 2019-07-15 | 2024-04-09 | 苏州宝时得电动工具有限公司 | 自主机器人及其定位校准方法、装置和存储介质 |
JP6873515B1 (ja) * | 2019-07-25 | 2021-05-19 | 株式会社プロドローン | 遠隔操縦システムおよびその操縦装置 |
EP4007715A4 (en) * | 2019-08-02 | 2023-03-29 | Axon Enterprise, Inc. | SYSTEMS AND METHODS FOR SAFETY VEHICLE HOUSING EQUIPMENT |
CN110749328B (zh) * | 2019-08-30 | 2021-12-28 | 华为技术有限公司 | 定位方法与系统、电子设备、车辆与存储介质 |
JP6929914B2 (ja) * | 2019-10-11 | 2021-09-01 | 三菱重工業株式会社 | 垂直離着陸機の自動着陸システム、垂直離着陸機および垂直離着陸機の着陸制御方法 |
CN112788227B (zh) * | 2019-11-07 | 2022-06-14 | 富泰华工业(深圳)有限公司 | 目标追踪拍摄方法、装置、计算机装置及存储介质 |
TWI726536B (zh) | 2019-12-16 | 2021-05-01 | 財團法人工業技術研究院 | 影像擷取方法及影像擷取設備 |
CN111015670B (zh) * | 2019-12-28 | 2021-06-08 | 飞天诚信科技股份有限公司 | 一种机械手臂及其定位识别处理零件的方法 |
CN111103891B (zh) * | 2019-12-30 | 2021-03-16 | 西安交通大学 | 一种基于骨骼点检测的无人机快速姿势控制系统与方法 |
US20210201431A1 (en) * | 2019-12-31 | 2021-07-01 | Grabango Co. | Dynamically controlled cameras for computer vision monitoring |
CN111399533B (zh) * | 2020-02-10 | 2022-07-26 | 合肥工业大学 | 异构多无人机协同任务分配与路径优化方法 |
CN111457895B (zh) * | 2020-03-31 | 2022-04-22 | 彩虹无人机科技有限公司 | 一种无人机光电载荷的目标尺寸计算与显示方法 |
CN111439386B (zh) * | 2020-04-17 | 2023-07-25 | 江苏无国界无人机科技有限公司 | 紫外、可见光、红外三合一的无人机电力巡检吊舱 |
CN111352410A (zh) * | 2020-04-26 | 2020-06-30 | 重庆市亿飞智联科技有限公司 | 飞行控制方法、装置、存储介质、自动驾驶仪及无人机 |
CN113853781A (zh) * | 2020-05-28 | 2021-12-28 | 深圳市大疆创新科技有限公司 | 一种图像处理方法、头戴式显示设备及存储介质 |
WO2021243566A1 (zh) * | 2020-06-02 | 2021-12-09 | 深圳市大疆创新科技有限公司 | 成像方法、成像装置、计算机可读存储介质 |
JP7014261B2 (ja) * | 2020-06-15 | 2022-02-01 | ソニーグループ株式会社 | 制御方法及び制御装置 |
SE2050738A1 (en) | 2020-06-22 | 2021-12-23 | Sony Group Corp | System and method for image content recording of a moving user |
US11256257B2 (en) | 2020-06-30 | 2022-02-22 | Sony Group Corporation | Method of multi-drone camera control |
US20230350413A1 (en) * | 2020-07-20 | 2023-11-02 | Canon U.S.A., Inc. | Control system for an unmanned autonomous vehicle |
US11737529B2 (en) | 2020-09-23 | 2023-08-29 | Yasiel Garcia | Flying umbrella assembly |
US11790671B2 (en) * | 2020-10-05 | 2023-10-17 | Crazing Lab, Inc. | Vision based light detection and ranging system using multi-fields of view |
CN114390191B (zh) * | 2020-10-22 | 2023-11-10 | 华为技术有限公司 | 录像方法、电子设备及存储介质 |
EP3992936B1 (en) | 2020-11-02 | 2023-09-13 | Axis AB | A method of activating an object-specific action when tracking a moving object |
US11445121B2 (en) * | 2020-12-29 | 2022-09-13 | Industrial Technology Research Institute | Movable photographing system and photography composition control method |
CN112866611A (zh) * | 2020-12-31 | 2021-05-28 | 上海新住信机电集成有限公司 | 一种智能楼宇监控系统 |
JP2021073796A (ja) * | 2021-01-25 | 2021-05-13 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 制御装置、及び画像を取得する方法 |
CN112947519A (zh) * | 2021-02-05 | 2021-06-11 | 北京御航智能科技有限公司 | 一种无人机的巡检方法、装置及边缘计算模块 |
US20220262263A1 (en) * | 2021-02-16 | 2022-08-18 | Flir Unmanned Aerial Systems Ulc | Unmanned aerial vehicle search and rescue systems and methods |
EP4047434B1 (en) * | 2021-02-19 | 2023-11-08 | Anarky Labs Oy | Apparatus, method and software for assisting an operator in flying a drone using a remote controller and ar glasses |
CN113252008B (zh) * | 2021-04-17 | 2022-09-20 | 应急管理部国家自然灾害防治研究院 | 一种航空遥感窄视场相机拍摄控制方法 |
CN113286077A (zh) * | 2021-04-19 | 2021-08-20 | 瑞泰影像科技(深圳)有限公司 | 全自动摄像头跟踪识别技术 |
US20220340276A1 (en) * | 2021-04-27 | 2022-10-27 | Joseph Harris | Drone Umbrella Device |
CN113184195B (zh) * | 2021-06-25 | 2021-08-31 | 山东科技职业学院 | 一种智能配送系统 |
FR3129237B1 (fr) * | 2021-11-17 | 2024-04-19 | Airbus Defence And Space Sas | Procédé d'acquisition d'images d'un objet spatial en orbite terrestre par un engin spatial en orbite terrestre |
CN114044158A (zh) * | 2021-11-29 | 2022-02-15 | 浙江图盛输变电工程有限公司温州科技分公司 | 基于人工智能图像识别的无人机自动驾驶系统 |
CN114485267B (zh) * | 2021-12-30 | 2023-06-09 | 北京理工大学 | 一种发射与光电协同控制方法 |
CN114368335B (zh) * | 2022-02-24 | 2023-04-18 | 浙江华云清洁能源有限公司 | 一种无人机纠偏装置和具有该无人机纠偏装置的移动车 |
US11861894B1 (en) * | 2023-05-05 | 2024-01-02 | Royce Geospatial Consultants, Inc. | Target custody platform for modeling target navigation trajectory with confidence intervals |
CN117035745B (zh) * | 2023-10-07 | 2023-12-19 | 上海华建电力设备股份有限公司 | 一种变电站线路保护系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010089738A2 (en) * | 2009-02-05 | 2010-08-12 | Elbit Systems Ltd. | Controlling an imaging apparatus over a delayed communication link |
CN102809969A (zh) * | 2011-06-03 | 2012-12-05 | 鸿富锦精密工业(深圳)有限公司 | 无人飞行载具控制系统及方法 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
Family Cites Families (98)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5927142B2 (ja) * | 1975-11-21 | 1984-07-03 | フジタ タカユキ | テレビカメラノジドウツイビソウチ |
DE4010073A1 (de) | 1990-03-29 | 1991-10-02 | Wabco Westinghouse Fahrzeug | Einrichtung zur bergfahrt-erkennung |
JPH0973543A (ja) * | 1995-09-06 | 1997-03-18 | Toshiba Corp | 画像処理装置 |
US6460810B2 (en) | 1996-09-06 | 2002-10-08 | Terry Jack James | Semiautonomous flight director |
US6584382B2 (en) | 2000-05-17 | 2003-06-24 | Abraham E. Karem | Intuitive vehicle and machine control |
US7173650B2 (en) * | 2001-03-28 | 2007-02-06 | Koninklijke Philips Electronics N.V. | Method for assisting an automated video tracking system in reaquiring a target |
JP4284949B2 (ja) * | 2002-09-05 | 2009-06-24 | ソニー株式会社 | 移動撮影システム、移動撮影方法、及び撮影装置 |
US20040100563A1 (en) | 2002-11-27 | 2004-05-27 | Sezai Sablak | Video tracking system and method |
JP4133435B2 (ja) * | 2003-02-26 | 2008-08-13 | 健蔵 野波 | 小型無人ヘリコプタの自律制御方法 |
JP4141860B2 (ja) * | 2003-02-26 | 2008-08-27 | 健蔵 野波 | 小型無人ヘリコプタの自律制御装置及びプログラム |
US7555383B2 (en) | 2003-05-28 | 2009-06-30 | Northrop Grumman Corporation | Target acquisition and tracking system |
US7343232B2 (en) * | 2003-06-20 | 2008-03-11 | Geneva Aerospace | Vehicle control system including related methods and components |
IL157098A (en) * | 2003-07-24 | 2009-07-20 | Rafael Advanced Defense Sys | Spectral tracking of a target |
US7302316B2 (en) | 2004-09-14 | 2007-11-27 | Brigham Young University | Programmable autopilot system for autonomous flight of unmanned aerial vehicles |
US20100004802A1 (en) * | 2005-01-25 | 2010-01-07 | William Kress Bodin | Navigating UAVS with an on-board digital camera |
US7415199B2 (en) | 2005-05-24 | 2008-08-19 | Sony Ericsson Mobile Communications Ab | Image capture apparatus, methods and computer program products using auto-focus-generated distance estimates to control flash and image stabilization |
JP4241673B2 (ja) | 2005-06-17 | 2009-03-18 | 本田技研工業株式会社 | 移動体の経路生成装置 |
JP2007037713A (ja) * | 2005-08-02 | 2007-02-15 | Funai Electric Co Ltd | 監視装置及び自走式掃除機 |
AU2006306523B2 (en) | 2005-10-21 | 2011-05-19 | Deere & Company | Systems and methods for switching between autonomous and manual operation of a vehicle |
US7734387B1 (en) | 2006-03-31 | 2010-06-08 | Rockwell Collins, Inc. | Motion planner for unmanned ground vehicles traversing at high speeds in partially known environments |
US8838289B2 (en) | 2006-04-19 | 2014-09-16 | Jed Margolin | System and method for safely flying unmanned aerial vehicles in civilian airspace |
US7778744B2 (en) | 2006-04-20 | 2010-08-17 | Honeywell International Inc. | Avionics framework |
US7581702B2 (en) | 2006-06-09 | 2009-09-01 | Insitu, Inc. | Wirelessly controlling unmanned aircraft and accessing associated surveillance data |
US8355818B2 (en) | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US7587260B2 (en) | 2006-07-05 | 2009-09-08 | Battelle Energy Alliance, Llc | Autonomous navigation system and method |
US7411167B2 (en) * | 2006-09-05 | 2008-08-12 | Honeywell International Inc. | Tracking a moving object from a camera on a moving platform |
US8788118B2 (en) | 2006-09-06 | 2014-07-22 | Jeffrey A. Matos | Systems and methods for detecting and managing the unauthorized use of an unmanned aircraft |
US20100250022A1 (en) * | 2006-12-29 | 2010-09-30 | Air Recon, Inc. | Useful unmanned aerial vehicle |
DE102007032084A1 (de) | 2007-07-09 | 2009-01-22 | Eads Deutschland Gmbh | Kollisions- und Konfliktvermeidungssystem für autonome unbemannte Flugzeuge (UAV) |
GB0713336D0 (en) | 2007-07-10 | 2007-08-22 | Hw Comm Ltd | Occupancy declaration/verification for passenger transport conveyances |
KR101187909B1 (ko) * | 2007-10-04 | 2012-10-05 | 삼성테크윈 주식회사 | 감시 카메라 시스템 |
CN100487724C (zh) * | 2007-10-08 | 2009-05-13 | 北京科技大学 | 一种快速目标识别与定位系统及方法 |
CN101448142A (zh) * | 2007-11-27 | 2009-06-03 | 鸿富锦精密工业(深圳)有限公司 | 影像追踪装置及其影像追踪方法 |
US8718838B2 (en) * | 2007-12-14 | 2014-05-06 | The Boeing Company | System and methods for autonomous tracking and surveillance |
US9026272B2 (en) * | 2007-12-14 | 2015-05-05 | The Boeing Company | Methods for autonomous tracking and surveillance |
US7970507B2 (en) * | 2008-01-23 | 2011-06-28 | Honeywell International Inc. | Method and system for autonomous tracking of a mobile target by an unmanned aerial vehicle |
JP4982407B2 (ja) | 2008-02-22 | 2012-07-25 | 株式会社東芝 | 移動体画像追尾装置及び方法 |
US9288449B2 (en) * | 2008-08-05 | 2016-03-15 | University Of Florida Research Foundation, Inc. | Systems and methods for maintaining multiple objects within a camera field-of-view |
FR2935214B1 (fr) | 2008-08-20 | 2010-10-08 | Eads Europ Aeronautic Defence | Procede et un dispositif de commande, a distance, d'une camera embarquee dans une station mobile |
US8521339B2 (en) * | 2008-09-09 | 2013-08-27 | Aeryon Labs Inc. | Method and system for directing unmanned vehicles |
US20100228406A1 (en) * | 2009-03-03 | 2010-09-09 | Honeywell International Inc. | UAV Flight Control Method And System |
US8977407B2 (en) | 2009-05-27 | 2015-03-10 | Honeywell International Inc. | Adaptive user interface for semi-automatic operation |
US8515609B2 (en) | 2009-07-06 | 2013-08-20 | Honeywell International Inc. | Flight technical control management for an unmanned aerial vehicle |
US9456185B2 (en) | 2009-08-26 | 2016-09-27 | Geotech Environmental Equipment, Inc. | Helicopter |
IL201682A0 (en) | 2009-10-22 | 2010-11-30 | Bluebird Aero Systems Ltd | Imaging system for uav |
US8363109B2 (en) * | 2009-12-10 | 2013-01-29 | Harris Corporation | Video processing system providing enhanced tracking features for moving objects outside of a viewable window and related methods |
CN101726296B (zh) * | 2009-12-22 | 2013-10-09 | 哈尔滨工业大学 | 空间机器人视觉测量、路径规划、gnc一体化仿真系统 |
WO2011091224A1 (en) | 2010-01-25 | 2011-07-28 | Waters Technologies Corporation | Method for determining equivalent thermal conditions between liquid chromatography systems |
US8135503B2 (en) * | 2010-04-27 | 2012-03-13 | Honeywell International Inc. | Ground proximity sensor |
US8634653B1 (en) | 2010-06-02 | 2014-01-21 | The Boeing Company | Object identification system |
US20110304737A1 (en) * | 2010-06-15 | 2011-12-15 | Flir Systems, Inc. | Gimbal positioning with target velocity compensation |
WO2012052738A1 (en) * | 2010-10-19 | 2012-04-26 | Bae Systems Plc | Sensor positioning for target tracking |
IL208910A0 (en) * | 2010-10-24 | 2011-02-28 | Rafael Advanced Defense Sys | Tracking and identification of a moving object from a moving sensor using a 3d model |
KR20120044484A (ko) | 2010-10-28 | 2012-05-08 | 삼성전자주식회사 | 이미지 처리 시스템에서 물체 추적 장치 및 방법 |
TWI514324B (zh) | 2010-11-30 | 2015-12-21 | Ind Tech Res Inst | 影像目標區域追蹤系統與方法及電腦程式產品 |
US8527445B2 (en) * | 2010-12-02 | 2013-09-03 | Pukoa Scientific, Llc | Apparatus, system, and method for object detection and identification |
US20120143482A1 (en) | 2010-12-02 | 2012-06-07 | Honeywell International Inc. | Electronically file and fly unmanned aerial vehicle |
US9147260B2 (en) * | 2010-12-20 | 2015-09-29 | International Business Machines Corporation | Detection and tracking of moving objects |
CN102156481B (zh) * | 2011-01-24 | 2013-06-05 | 广州嘉崎智能科技有限公司 | 无人飞行器的智能追踪控制方法及系统 |
US9930298B2 (en) * | 2011-04-19 | 2018-03-27 | JoeBen Bevirt | Tracking of dynamic object of interest and active stabilization of an autonomous airborne platform mounted camera |
TW201249713A (en) * | 2011-06-02 | 2012-12-16 | Hon Hai Prec Ind Co Ltd | Unmanned aerial vehicle control system and method |
EP2538298A1 (en) | 2011-06-22 | 2012-12-26 | Sensefly Sàrl | Method for acquiring images from arbitrary perspectives with UAVs equipped with fixed imagers |
CN102355574B (zh) * | 2011-10-17 | 2013-12-25 | 上海大学 | 机载云台运动目标自主跟踪系统的图像稳定方法 |
IL216515A (en) | 2011-11-22 | 2015-02-26 | Israel Aerospace Ind Ltd | A system and method for processing images from a camera set |
CN102419598B (zh) * | 2011-12-08 | 2013-11-06 | 南京航空航天大学 | 一种多无人机协同侦察移动目标的方法 |
FR2985581B1 (fr) * | 2012-01-05 | 2014-11-28 | Parrot | Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs |
NO334183B1 (no) | 2012-03-22 | 2014-01-13 | Prox Dynamics As | Metode og anordning for å kontrollere og overvåke det omliggende område til et ubemannet luftfartøy |
US9373051B2 (en) | 2012-06-14 | 2016-06-21 | Insitu, Inc. | Statistical approach to identifying and tracking targets within captured image data |
CN102779347B (zh) * | 2012-06-14 | 2014-08-06 | 清华大学 | 一种用于飞行器的目标跟踪与定位方法和装置 |
US20140008496A1 (en) * | 2012-07-05 | 2014-01-09 | Zhou Ye | Using handheld device to control flying object |
US20140018976A1 (en) | 2012-07-13 | 2014-01-16 | Honeywell International Inc. | System and method for unmanned system data collection, management, and reporting |
US9254363B2 (en) | 2012-07-17 | 2016-02-09 | Elwha Llc | Unmanned device interaction methods and systems |
CN202879792U (zh) * | 2012-07-24 | 2013-04-17 | 金笛 | 悬浮式航空摄像与追踪自主飞行器系统 |
US9435520B2 (en) * | 2012-08-16 | 2016-09-06 | Ascendant Engineering Solutions | Gimbal systems providing high-precision imaging capabilities in a compact form-factor |
US20150350614A1 (en) | 2012-08-31 | 2015-12-03 | Brain Corporation | Apparatus and methods for tracking using aerial video |
JP6055274B2 (ja) * | 2012-10-31 | 2016-12-27 | 株式会社トプコン | 航空写真測定方法及び航空写真測定システム |
AU2013204965B2 (en) | 2012-11-12 | 2016-07-28 | C2 Systems Limited | A system, method, computer program and data signal for the registration, monitoring and control of machines and devices |
US8798922B2 (en) | 2012-11-16 | 2014-08-05 | The Boeing Company | Determination of flight path for unmanned aircraft in event of in-flight contingency |
EP2733560A1 (en) | 2012-11-19 | 2014-05-21 | The Boeing Company | Autonomous mission management |
US9052013B2 (en) | 2012-12-14 | 2015-06-09 | Caterpillar Inc. | Grade and payload based transmission gear selection strategy |
JP6014484B2 (ja) * | 2012-12-21 | 2016-10-25 | セコム株式会社 | 自律移動ロボット |
US9051043B1 (en) | 2012-12-28 | 2015-06-09 | Google Inc. | Providing emergency medical services using unmanned aerial vehicles |
US9367067B2 (en) | 2013-03-15 | 2016-06-14 | Ashley A Gilmore | Digital tethering for tracking with autonomous aerial robot |
US9070289B2 (en) * | 2013-05-10 | 2015-06-30 | Palo Alto Research Incorporated | System and method for detecting, tracking and estimating the speed of vehicles from a mobile platform |
US9307383B1 (en) | 2013-06-12 | 2016-04-05 | Google Inc. | Request apparatus for delivery of medical support implement by UAV |
US8996207B2 (en) | 2013-06-24 | 2015-03-31 | Honeywell International Inc. | Systems and methods for autonomous landing using a three dimensional evidence grid |
US9650155B2 (en) | 2013-06-25 | 2017-05-16 | SZ DJI Technology Co., Ltd | Aircraft control apparatus, control system and control method |
JP5506989B1 (ja) | 2013-07-11 | 2014-05-28 | パナソニック株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
CN103426282A (zh) * | 2013-07-31 | 2013-12-04 | 深圳市大疆创新科技有限公司 | 遥控方法及终端 |
US20150321758A1 (en) | 2013-08-31 | 2015-11-12 | II Peter Christopher Sarna | UAV deployment and control system |
CN103675870B (zh) * | 2013-12-04 | 2016-01-20 | 海丰通航科技有限公司 | 追踪器设备 |
CN103604427B (zh) * | 2013-12-10 | 2016-10-12 | 中国航天空气动力技术研究院 | 对地面移动目标动态定位的无人机系统和方法 |
CN103778523B (zh) * | 2014-01-09 | 2017-04-19 | 武汉猎隼科技有限公司 | 一种垂直起降无人机及其精确定位及避障方法 |
CN103838244B (zh) * | 2014-03-20 | 2016-08-17 | 湖南大学 | 基于四轴飞行器的便携式目标跟踪方法及系统 |
US9354296B2 (en) | 2014-05-20 | 2016-05-31 | Verizon Patent And Licensing Inc. | Dynamic selection of unmanned aerial vehicles |
US9087451B1 (en) | 2014-07-14 | 2015-07-21 | John A. Jarrell | Unmanned aerial vehicle communication, monitoring, and traffic management |
US10399674B2 (en) | 2014-07-28 | 2019-09-03 | Insitu, Inc. | Systems and methods countering an unmanned air vehicle |
CN107577247B (zh) | 2014-07-30 | 2021-06-25 | 深圳市大疆创新科技有限公司 | 目标追踪系统及方法 |
-
2014
- 2014-07-30 CN CN201710862502.9A patent/CN107577247B/zh active Active
- 2014-07-30 CN CN201710862840.2A patent/CN107703963B/zh active Active
- 2014-07-30 WO PCT/CN2014/083315 patent/WO2016015251A1/en active Application Filing
- 2014-07-30 CN CN201710406022.1A patent/CN107168352B/zh active Active
- 2014-07-30 CN CN201480018129.3A patent/CN105518555B/zh active Active
- 2014-07-30 CN CN201710406023.6A patent/CN107015572B/zh active Active
- 2014-07-30 CN CN201710402023.9A patent/CN107291104A/zh active Pending
- 2014-07-30 EP EP14899044.3A patent/EP3060966B1/en active Active
- 2014-07-30 EP EP21166017.0A patent/EP3862837B1/en active Active
- 2014-07-30 JP JP2016526059A patent/JP6784434B2/ja active Active
- 2014-08-28 US US14/471,954 patent/US9164506B1/en active Active
-
2015
- 2015-09-04 US US14/845,894 patent/US9567078B2/en active Active
-
2016
- 2016-06-14 US US15/182,553 patent/US9846429B2/en active Active
- 2016-10-10 US US15/289,842 patent/US20170023938A1/en not_active Abandoned
- 2016-12-28 US US15/392,979 patent/US11194323B2/en active Active
-
2017
- 2017-07-19 US US15/654,214 patent/US11106201B2/en active Active
-
2021
- 2021-12-06 US US17/543,058 patent/US20220091607A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010089738A2 (en) * | 2009-02-05 | 2010-08-12 | Elbit Systems Ltd. | Controlling an imaging apparatus over a delayed communication link |
CN102809969A (zh) * | 2011-06-03 | 2012-12-05 | 鸿富锦精密工业(深圳)有限公司 | 无人飞行载具控制系统及方法 |
CN103149939A (zh) * | 2013-02-26 | 2013-06-12 | 北京航空航天大学 | 一种基于视觉的无人机动态目标跟踪与定位方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102236339B1 (ko) * | 2016-10-24 | 2021-04-02 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 이미징 기기로 캡처한 이미지를 제어하기 위한 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN107168352A (zh) | 2017-09-15 |
EP3060966B1 (en) | 2021-05-05 |
CN107015572A (zh) | 2017-08-04 |
CN107015572B (zh) | 2021-01-22 |
US11194323B2 (en) | 2021-12-07 |
US20170108877A1 (en) | 2017-04-20 |
CN107291104A (zh) | 2017-10-24 |
US20220091607A1 (en) | 2022-03-24 |
EP3060966A4 (en) | 2017-01-11 |
EP3862837A1 (en) | 2021-08-11 |
CN107577247A (zh) | 2018-01-12 |
CN107577247B (zh) | 2021-06-25 |
WO2016015251A1 (en) | 2016-02-04 |
US9164506B1 (en) | 2015-10-20 |
CN105518555A (zh) | 2016-04-20 |
JP6784434B2 (ja) | 2020-11-11 |
US11106201B2 (en) | 2021-08-31 |
US20170322551A1 (en) | 2017-11-09 |
EP3862837B1 (en) | 2023-05-03 |
EP3060966A1 (en) | 2016-08-31 |
US20160031559A1 (en) | 2016-02-04 |
US20170068246A1 (en) | 2017-03-09 |
US9846429B2 (en) | 2017-12-19 |
JP2017503226A (ja) | 2017-01-26 |
US20170023938A1 (en) | 2017-01-26 |
US9567078B2 (en) | 2017-02-14 |
CN107703963B (zh) | 2020-12-01 |
CN107703963A (zh) | 2018-02-16 |
CN107168352B (zh) | 2020-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105518555B (zh) | 目标追踪系统及方法 | |
CN108351649B (zh) | 用于控制可移动物体的方法和设备 | |
KR102236339B1 (ko) | 이미징 기기로 캡처한 이미지를 제어하기 위한 시스템 및 방법 | |
CN108780325B (zh) | 用于调整无人飞行器轨迹的系统和方法 | |
CN108351653B (zh) | 用于uav飞行控制的系统和方法 | |
CN104854428B (zh) | 传感器融合 | |
CN110049921B (zh) | 用于红外跟踪的方法和系统 | |
CN108292141A (zh) | 用于目标跟踪的方法和系统 | |
JP2017503226A5 (zh) | ||
CN111527463A (zh) | 用于多目标跟踪的方法和系统 | |
CN110300938A (zh) | 用于免控制器式用户无人机交互的系统和方法 | |
CN109643129A (zh) | 自主着陆的方法和系统 | |
CN108351654A (zh) | 用于视觉目标跟踪的系统和方法 | |
CN107637064A (zh) | 用于图像处理的方法和设备 | |
CN109644233A (zh) | 多云台组件 | |
CN107209514A (zh) | 传感器数据的选择性处理 | |
CN108139758A (zh) | 基于显著性特征的载运工具定位 | |
CN105980950A (zh) | 无人飞行器的速度控制 | |
CN107850902A (zh) | 可移动物体上的相机配置 | |
CN107924638A (zh) | 用于云台模拟的系统和方法 | |
CN106716272A (zh) | 用于飞行模拟的系统和方法 | |
JP6849272B2 (ja) | 無人航空機を制御するための方法、無人航空機、及び無人航空機を制御するためのシステム | |
CN111194433A (zh) | 用于构图和捕捉图像的方法和系统 | |
JP2021073796A (ja) | 制御装置、及び画像を取得する方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |