CN107402577A - 无人机及其控制方法 - Google Patents
无人机及其控制方法 Download PDFInfo
- Publication number
- CN107402577A CN107402577A CN201710073207.5A CN201710073207A CN107402577A CN 107402577 A CN107402577 A CN 107402577A CN 201710073207 A CN201710073207 A CN 201710073207A CN 107402577 A CN107402577 A CN 107402577A
- Authority
- CN
- China
- Prior art keywords
- special object
- unmanned plane
- controller
- shooting
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000008859 change Effects 0.000 claims abstract description 271
- 239000000203 mixture Substances 0.000 claims abstract description 211
- 230000033001 locomotion Effects 0.000 claims abstract description 135
- 238000004891 communication Methods 0.000 claims abstract description 45
- 210000004243 sweat Anatomy 0.000 claims description 21
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 20
- 230000036760 body temperature Effects 0.000 claims description 18
- 238000010586 diagram Methods 0.000 description 29
- 230000000694 effects Effects 0.000 description 15
- 230000002964 excitative effect Effects 0.000 description 14
- 241000406668 Loxodonta cyclotis Species 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000000151 deposition Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q9/00—Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W88/00—Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
- H04W88/02—Terminal devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U30/00—Means for producing lift; Empennages; Arrangements thereof
- B64U30/20—Rotors; Rotor supports
- B64U30/26—Ducted or shrouded rotors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/06—Details of telephonic subscriber devices including a wireless LAN interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q2209/00—Arrangements in telecontrol or telemetry systems
- H04Q2209/40—Arrangements in telecontrol or telemetry systems using a wireless architecture
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Studio Devices (AREA)
- Telephone Function (AREA)
Abstract
无人机及其控制方法。一种无人机包括:飞行单元,其被配置为生成用于飞行的升力;通信单元,其被配置为从移动终端接收在所述移动终端中获得的感测数据;相机,其被配置为拍摄特定对象;以及控制器,其被配置为基于所接收到的感测数据来识别所述特定对象的运动变化和所述特定对象的状态变化中的至少一个,基于所识别的运动变化和状态变化中的至少一个来改变所述特定对象的拍摄构图,并且基于所改变的拍摄构图来经由所述相机拍摄所述特定对象。
Description
技术领域
本发明涉及无人机及其控制方法。
背景技术
近来,存在一种具有能够由个人或公司管理的无人机的趋势。例如,无人机对应于诸如飞机或直升机的形状的飞行物体,其通过无线电波的控制信号来飞行,同时不载人。近来,在互联网上共享利用嵌入无人机中的相机在空中拍摄的视频的情况越来越多,并且在拍片现场越来越多使用无人机代替摇杆摄像机。
另外,近来开发了在维持无人机与对象之间的空间的同时拍摄视频的技术。然而,为了考虑对象的运动变化和对象的状态变化在改变拍摄构图的同时拍摄视频,需要有单独的摄影师。不存在拍摄由无人机通过自动地改变拍摄构图来拍摄的视频的技术。
然而,随着被个人拥有的无人机越来越多,人们趋向于在没有单独的摄影师的情况下拍摄视频。因此,需要一种拍摄由无人机通过考虑对象的运动变化和对象的状态变化自动地改变拍摄构图来拍摄的视频的技术。
发明内容
因此,本发明的目的在于解决上述问题以及其它问题。
本发明的一个实施方式的技术任务在于使得无人机在考虑对象的运动变化和对象的状态变化自动地改变拍摄构图的同时拍摄视频。
本发明的一个实施方式的另一技术任务在于使得无人机自主地拍摄与技艺精湛的摄影师所拍摄的视频相似的视频,而无需单独的摄影师的控制。
可从本发明获得的技术任务不限于上述技术任务。另外,本发明所属技术领域的普通技术人员可从以下描述清楚地理解其它未提及的技术任务。
本发明的附加优点、目的和特征将部分地在接下来的描述中阐述,并且部分地对于研究了以下内容的本领域普通技术人员而言将变得显而易见,或者可从本发明的实践中学习。本发明的目的和其它优点可通过在所撰写的说明书及其权利要求书以及附图中所特别指出的结构来实现和达到。
为了实现这些目的和其它优点并且根据本发明的目的,如本文具体实现并且广义描述的,根据一个实施方式,一种与移动终端连接通信的无人机包括:飞行单元,其被配置为生成升力以飞行;通信单元,其被配置为从移动终端接收在移动终端中获得的感测数据;相机,其被配置为拍摄特定对象;以及控制器。在这种情况下,所述控制器基于感测数据来识别所述特定对象的运动变化和所述特定对象的状态变化中的至少一个,基于所识别的运动变化和所识别的状态变化中的至少一个来改变所述特定对象的拍摄构图,并且基于所改变的拍摄构图来经由相机拍摄所述特定对象。
本发明的进一步的适用范围将从下文给出的详细描述而变得显而易见。然而,应该理解,仅示意性地在指示本发明的优选实施方式的同时给出详细描述和具体示例,因为对于本领域技术人员而言,通过该详细描述,在本发明的精神和范围内的各种改变和修改将变得显而易见。
可从本发明获得的效果可不限于上述效果。并且,本发明所属技术领域的普通技术人员可从以下描述清楚地推导并理解其它未提及的效果。
附图说明
本发明将从本文下面给出的详细描述和附图变得更充分地理解,所述附图仅作为例示给出,因此不限制本发明,附图中:
图1是示出根据本发明的实施方式的无人机的框图;
图2是示出根据本发明的一个实施方式的无人机的外观的示例的示图;
图3是示出在根据本发明的一个实施方式的无人机中根据特定对象的运动变化和特定对象的状态变化来拍摄特定对象的方法的流程图;
图4是示出在根据本发明的一个实施方式的无人机中当不存在特定对象的运动变化和状态变化时拍摄特定对象的方法的示例的示图;
图5、图6、图7和图8是示出根据本发明的一个实施方式的基于特定对象的运动变化和状态变化中的至少一个来改变无人机的拍摄构图的方法的示例的示图;
图9是示出在根据本发明的一个实施方式的无人机中根据特定对象的活动的类型来改变拍摄构图的方法的示例的示图;
图10是示出在根据本发明的一个实施方式的无人机中根据周围地理环境来改变拍摄构图的方法的示例的示图;
图11是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的示例的示图;
图12是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的不同示例的示图;
图13是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的不同示例的示图;
图14、图15、图16和图17是示出根据本发明的一个实施方式的无人机的控制方法的示例的示图;
图18、图19、图20和图21是示出由无人机通过改变存储在移动终端的存储器中的视频的拍摄构图来拍摄视频的方法的示例的示图;
图22是示出根据本发明的一个实施方式的由无人机根据特定对象的速度来拍摄特定对象的方法的流程图;
图23是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的示例的示图;
图24是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的不同示例的示图;
图25是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的不同示例的示图;
图26是示出在根据本发明的一个实施方式的无人机中基于特定对象的速度改变特定对象的拍摄构图的方法的示例的示图。
具体实施方式
现在将参照附图根据本文公开的示例性实施方式详细给出描述。为了参照附图简要描述,可为相同或等同的组件提供相同的标号,其描述将不再重复。通常,诸如“模块”和“单元”的后缀可用于指代元件或组件。本文使用这种后缀仅是为了方便说明书的描述,后缀本身并非旨在给予任何特殊含义或功能。使用附图来帮助容易地理解各种技术特征,应该理解,本文呈现的实施方式不受附图的限制。因此,本公开应该被解释为扩展至附图中具体示出的更改形式、等同形式和替代形式以外的任何更改形式、等同形式和替代形式。
尽管本文中可使用术语第一、第二等来描述各种元件,这些元件不应由这些术语限制。这些术语通常仅用于将一个元件与另一元件区分。
当元件被称为“与”另一元件“连接”时,该元件可与该另一元件连接或者也可存在中间元件。相反,当元件被称为“与”另一元件“直接连接”时,不存在中间元件。
单数表示可包括复数表示,除非它根据上下文表示明确不同的含义。本文中使用诸如“包括”或“具有”的术语,应该理解为它们旨在指示存在本说明书中所公开的多个组件、功能或步骤,还应该理解为同样可使用更多或更少的组件、功能或步骤。
本文所呈现的用于控制无人机的移动终端可利用各种不同类型的终端来实现。这些终端的示例包括蜂窝电话、智能电话、用于控制无人机的终端、石板PC、平板PC、超级本、可穿戴装置(例如,智能手表、智能眼镜、头戴式显示器(HMD))等。
图1是示出根据本发明的实施方式的无人机的框图。无人机100可包括飞行单元110、主体单元120、相机130等。由于图1所示的配置元件不是实现无人机所必不可少的,本说明书中所描述的无人机可包括比上面所列的配置元件更多或更少的配置元件。
更具体地讲,配置元件当中的飞行部110可通过使螺旋桨旋转来生成升力并且可通过控制螺旋桨的旋转数来控制升力的大小。可通过控制升力的大小来控制无人机100的高度、移动速度等。
因此,飞行单元110可在控制器124的控制下控制无人机的飞行。主体单元120可包括构造无人机100的电子部件。例如,通信单元121、存储器122、感测单元123和控制器124可被包括在主体单元120中。通信单元121可包括使得无人机100与用于控制无人机的终端(例如,移动终端等)之间能够执行无线通信的一个或更多个模块。
通信单元121可在通信网络中根据无线互联网技术与用于控制无人机的终端收发无线电信号。这种无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi直连、数字生活网络联盟(DLNA)、无线宽带(WiBro)、全球微波接入互操作性(WiMAX)、高速下行链路分组接入(HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(高级长期演进)等。通信单元121可根据包括上面的列表中没有包括的互联网技术的范围内的至少一种无线互联网技术来与用于控制无人机的终端收发数据。
另外,通信单元121可利用BluetoothTM、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、ZigBee、近场通信(NFC)、无线保真(Wi-Fi)和Wi-Fi直连、无线USB(无线通用串行总线)中的至少一个来支持短距离通信。通信单元121可支持用于控制无人机的终端与无人机100之间的经由短距离无线通信网络(无线区域网)的无线通信。
此外,位置信息模块可被嵌入通信单元121中。位置信息模块对应于用于获得无人机的位置(或当前位置)的模块。作为位置信息模块的代表性示例,有GPS(全球定位系统)模块或Wi-Fi(无线保真)模块。例如,在使用GPS模块的情况下,无人机100可利用从GPS卫星发送来的信号来获得无人机100的位置。作为不同的示例,在使用Wi-Fi模块的情况下,无人机100可基于被配置为与Wi-Fi模块发送和接收无线电信号的无线AP(接入点)的信息来获得无人机100的位置。如果需要,位置信息模块可另选地或另外地执行通信单元121的不同模块的功能以获得关于无人机100的位置的数据。位置信息模块对应于用于获得无人机的位置(或当前位置)的模块。位置信息模块可不限于直接计算或获得无人机的位置的模块。
通信单元121可从控制无人机100的终端接收用于控制无人机的飞行的控制信号、用于控制相机130的控制信号等。并且,通信单元121可将无人机所检测到的各种感测数据、经由相机130拍摄的视频等发送给控制无人机的终端。
另外,存储器122可存储支持无人机100的各种功能的数据。存储器122可存储在无人机100中操作的多个应用程序、用于无人机100的飞行的数据、用于拍摄视频的数据以及命令。多个应用程序中的至少一个可从制造无人机100的时间起就存在于无人机100中。应用程序被存储在存储器122中并且控制器124可控制无人机在飞行的同时拍摄视频。存储器122存储由相机130拍摄的视频数据并且可起到存储从用于控制无人机100的终端接收的数据的作用。
感测单元123起到检测无人机100的状态和周围环境的作用。作为示例,感测单元123可通过感测周围对象来防止无人机100与不同的对象碰撞。并且,感测单元123可基于检测信号来检测无人机的当前高度和当前速度。
除了与应用程序有关的操作以外,控制器124一般控制无人机100的总体操作。控制器124通过经由上述配置元件处理信号、数据、信息输入或输出或者执行存储在存储器122中的应用程序来使得无人机能够在沿着飞行路径飞行的同时拍摄视频。
控制器124可控制早前参照图1提及的配置元件的至少一部分以执行存储在存储器122中的应用程序。此外,控制器124可将包括在无人机100中的配置元件当中的至少两个或更多个配置元件彼此组合以执行应用程序。
此外,主体单元120可包括电源单元。在控制器124的控制下从电源单元向无人机100提供电力,无人机向各个配置元件供应电力。电源单元包括电池,该电池可对应于嵌入式电池或可更换电池。
无人机100可包括一个或多个相机130。具体地讲,相机130可通过暴露于无人机100的外部来起到拍摄视频或静止图像的作用。如果通过相机130拍摄视频,则控制器124可将所拍摄的视频数据发送给用于控制无人机的终端。
可安装能够在上下方向或左右方向上倾斜的相机130以拍摄对象。控制器124可通过控制相机130的移动来使得对象在视频中被连续地拍摄。
另外,安装在无人机100上的多个相机130可按照矩阵结构来布置。关于具有各种角度或焦点的多个视频的信息可经由矩阵结构的相机130被输入到无人机100中。另外,多个相机130也可按照立体结构布置以获得左图像和右图像以用于实现3D图像。
相机130可包括沿着至少一条线排列的多个镜头。所述多个镜头也可按照矩阵形式排列。这种类型的相机可被称作“阵列相机”。如果相机130通过阵列相机来配置,则它可利用多个镜头以各种方式拍摄视频并且可获得更高质量的视频。
接下来,图2是示出根据本发明的一个实施方式的无人机的外观的示例的示图。参照图2,无人机100可包括螺旋桨防护物210、螺旋桨220、主体单元230、相机240等。然而,本发明的权利范围不限于图2所示的无人机200的形状。具体地讲,本发明可被应用于直升机形状的各种无人机或者飞机形状的各种无人机,例如使用3个螺旋桨的三旋翼飞行器、图2所示的使用4个螺旋桨的四旋翼飞行器、使用8个螺旋桨的八旋翼飞行器等。
螺旋桨防护物210对应于用于防止人或动物受到螺旋桨220的操作伤害的配置。螺旋桨防护物可被省略。螺旋桨220和相机240响应于主体单元230的控制信号而操作,主体单元230包括能够与用于控制无人机100的终端通信的通信单元。
相机240可由至少一个或更多个相机来配置,相机可被配置为在上/下和左/右方向上倾斜。因此,相机240可响应于主体单元230的控制信号而移动。根据实施方式,相机240可根据不同于主体单元230的控制信号的单独的控制信号来移动。
在下文中,参照附图说明与能够在上述无人机中实现的控制方法关联的实施方式。对于本领域技术人员而言显而易见的是,在不偏离本发明的构思和本发明的基本特性的范围内,本发明可被修改为特定形式。
图3是示出在根据本发明的一个实施方式的无人机中根据特定对象的运动变化和特定对象的状态变化拍摄特定对象的方法的流程图。根据本发明的一个实施方式,无人机100的控制器124可控制通信单元121以与用于控制无人机的移动终端通信。在这种情况下,用于控制无人机的移动终端可对应于移动电话、智能电话、用于控制无人机的特定外部终端和手表型移动终端中的一个。
如果从移动终端接收到用于在特定拍摄模式下拍摄特定对象的信号,则无人机100的控制器124可控制相机130拍摄所述特定对象。在这种情况下,特定拍摄模式可对应于在将距特定对象的距离维持为预定距离并且连续地拍摄特定对象的同时根据特定对象的运动变化和特定对象的状态变化来改变拍摄构图的拍摄模式。
所述特定对象可对应于移动终端的用户。具体地讲,由于无人机100通过与移动终端远离开预定距离来拍摄移动终端,移动终端的用户被拍摄。因此,移动终端的用户可成为所述特定对象。
控制器124可在特定拍摄模式下控制飞行单元110在跟踪特定对象的同时飞行,并且可控制相机130的移动以使得特定对象被连续地拍摄。另外,控制器124可控制通信单元121接收从连接通信的移动终端获得的感测数据(S310)。
感测数据对应于经由移动终端的传感器获得的感测数据。感测数据可包括关于移动终端的移动方向的信息、关于移动终端的移动速度的信息、关于移动终端的位置的信息、关于移动终端的高度的信息、关于特定对象的姿态的信息、关于特定对象的脉搏的信息、关于特定对象的呼吸的信息、关于特定对象的体温的信息以及关于特定对象的排汗量的信息中的至少一个。
关于移动终端的移动方向的信息可包括关于通过包括在移动终端中的陀螺仪传感器等获得的移动方向的信息、关于移动方向的变化的信息等。关于移动终端的移动速度的信息可包括关于通过包括在移动终端中的速度测量传感器获得的移动速度的信息、关于通过包括在移动终端中的加速度传感器获得的加速度的信息等。
关于移动终端的位置的信息可包括关于通过移动终端的位置信息模块获得的移动终端的当前位置的信息、关于移动终端的位置变化的信息等。关于移动终端的高度的信息可包括关于通过包括在移动终端中的高度测量传感器获得的高度的信息、关于移动终端的高度变化的信息等。
关于特定对象的姿态的信息可包括关于通过包括在移动终端中的运动检测传感器获得的用户姿态的信息、关于根据移动终端的用户的移动的姿态变化的信息等。关于特定对象的脉搏的信息可包括关于通过包括在移动终端中的PPG(光电容积描记)传感器测量的移动终端的用户的脉搏模式的信息、关于用户的脉搏变化的信息等。
关于特定对象的呼吸的信息可包括关于通过包括在移动终端中的传感器获得的移动终端的用户的呼吸模式的信息、关于移动终端的用户的呼吸变化的信息等。关于特定对象的体温的信息可包括关于通过包括在移动终端中的传感器获得的移动终端的用户的当前体温的信息、关于移动终端的用户的体温变化的信息等。关于特定对象的排汗量的信息可包括关于通过包括在移动终端中的传感器获得的移动终端的用户的排汗量的信息、关于移动终端的用户的排汗量的变化的信息等。
控制器124可基于所接收到的感测数据来识别特定对象的运动变化和特定对象的状态变化中的至少一个(S320)。特定对象的运动变化可对应于与无人机连接的移动终端的运动变化。
具体地讲,控制器124可基于包括在所接收到的感测数据中的关于移动终端的移动方向的信息、关于移动终端的移动速度的信息、关于移动终端的加速度的信息、关于移动终端的位置的信息以及关于移动终端的高度的信息中的至少一个来识别移动终端的运动变化。控制器124可将移动终端的运动变化识别为特定对象的运动变化。
特定对象的状态变化可对应于与无人机连接的移动终端的用户的兴奋状态的变化。在这种情况下,兴奋状态对应于根据移动终端的用户的呼吸、体温、排汗量和脉搏的变化测量的状态。
具体地讲,控制器124可使用包括在所接收到的感测数据中的关于特定对象的姿态的信息、关于特定对象的脉搏的信息、关于特定对象的呼吸的信息、关于特定对象的体温的信息以及关于特定对象的排汗量的信息中的至少一个来识别移动终端的用户的兴奋状态的变化。控制器124可将兴奋状态的变化识别为特定对象的状态变化。
作为示例,如果控制器124经由所接收到的感测数据识别出指示移动终端的用户的脉搏快速增加并且用户的体温升高的信息,则控制器124可知道特定对象的状态改变为兴奋状态。
作为不同的示例,如果控制器124经由所接收到的感测数据识别出指示移动终端的用户的脉搏变慢,用户的体温下降,并且呼吸稳定的信息,则控制器124可知道特定对象的状态改变为稳定状态。
根据实施方式,控制器124可利用所接收到的感测数据来识别特定对象的运动变化的程度和特定对象的状态变化的程度中的至少一个。作为示例,控制器124可利用包括在所接收到的感测数据中的关于移动终端的高度的信息、关于移动终端的位置的信息等来识别移动终端的运动变化的程度。控制器124可利用移动终端的运动变化的程度来识别特定对象的运动变化的程度。
作为不同的示例,控制器124可利用包括在所接收到的感测数据中的关于特定对象的脉搏的信息、关于特定对象的呼吸的信息、关于特定对象的排汗量的信息以及关于的特定对象的体温信息中的至少一个来识别特定对象的兴奋程度。控制器124可基于所识别的兴奋程度来识别特定对象的状态变化的程度。具体地讲,兴奋程度可基于根据兴奋程度而变化的人的脉搏、排汗量、体温和呼吸中的至少一个来识别。特定对象的状态变化的程度可利用所识别的兴奋程度来识别。
控制器124可基于所识别的变化中的至少一个来改变特定对象的拍摄构图(S330)。在这种情况下,可利用特定对象的运动变化的程度和特定对象的状态变化的程度中的至少一个来改变特定对象的拍摄构图。
作为示例,如果识别出不存在特定对象的运动变化并且特定对象的状态稳定,则控制器124可将特定对象的拍摄构图设定为第一拍摄构图(例如,仅近距离拍摄特定对象的脸部的拍摄构图)。
作为不同的示例,如果识别出特定对象的运动略微改变并且特定对象的状态改变为第一兴奋状态(例如,略微兴奋状态),则控制器124可将特定对象的拍摄构图设定为第二拍摄构图(例如,在与特定对象远离开预定距离的位置拍摄特定对象的拍摄构图)。
作为另一不同的示例,如果识别出特定对象的运动改变很大并且特定对象的状态改变为第二兴奋状态(例如,非常兴奋状态),则控制器124可将特定对象的拍摄构图设定为第三拍摄构图(例如,在前方拍摄特定对象的拍摄构图)。
关于映射至各个变化程度的拍摄构图的信息可被预先存储在存储器122中。根据实施方式,控制器124可识别特定对象的当前活动的类型并且还基于所识别的运动变化、所识别的状态变化以及所识别的特定对象的当前活动的类型来改变特定对象的拍摄构图。在这种情况下,活动的类型可包括诸如滑雪、跑步和棒球的体育活动以及诸如旅行的一般活动。
作为示例,如果特定对象的当前活动被识别为滑雪,则控制器124可基于特定对象的运动变化和特定对象的状态变化将拍摄构图改变为主要拍摄雪道。作为不同的示例,如果特定对象的当前活动被识别为棒球,则控制器124可将拍摄构图改变为拍摄棒球以及特定对象。
在另一示例中,如果特定对象的当前活动被识别为在游艇中巡航的活动,则控制器124可将拍摄构图改变为拍摄周围环境以及特定对象。在另一示例中,如果特定对象的当前活动被识别为跑步,则控制器124可基于特定对象的运动变化和特定对象的状态变化将拍摄构图改变为主要拍摄跑道。在另一示例中,如果特定对象的当前活动被识别为旅行,则控制器124可将拍摄构图改变为在跟踪特定对象的运动的同时主要拍摄背景。
在下文中说明识别特定对象的当前活动的类型的方法。特定对象的当前活动的类型可基于特定对象的运动变化和特定对象的状态变化中的至少一个来识别,或者可通过向无人机发送关于从移动终端选择的活动的类型的信息来识别。
根据实施方式,开始拍摄的定时和结束拍摄的定时可根据活动的类型而变化。作为示例,如果特定对象的当前活动的类型被识别为滑雪,则控制器124接收雪道的地图信息,然后可基于所接收到的地图信息、特定对象的运动变化和特定对象的状态变化来开始和结束拍摄视频。
作为不同的示例,如果特定对象的当前活动的类型被识别为棒球,则控制器124可通过从移动终端接收拍摄开始命令或拍摄结束命令来开始和结束拍摄视频。在另一示例中,如果特定对象的当前活动的类型被识别为在游艇中巡航的活动,则控制器124可基于特定对象的运动变化的程度来开始和结束拍摄视频。具体地讲,如果特定对象的运动程度高,则控制器124开始拍摄视频。如果特定对象的运动程度低,则控制器124可结束拍摄视频。
在另一示例中,如果特定对象的当前活动的类型被识别为跑步,则控制器124可基于特定对象的运动变化和特定对象的状态变化来开始和结束拍摄视频。
在另一示例中,如果特定对象的当前活动的类型被识别为旅行,则控制器124可通过从移动终端接收拍摄开始命令或拍摄结束命令来开始和结束拍摄视频。根据实施方式,控制器124识别特定对象的周围地理信息,然后可基于所识别的周围地理信息来改变特定对象的拍摄构图。在这种情况下,控制器124可考虑特定对象的状态变化和特定对象的运动变化中的至少一个来改变拍摄构图。
周围地理信息可包括关于特定对象附近的斜坡的信息、关于存在于特定对象附近的障碍的信息等,本发明可不限于此。周围地理信息还可包括关于存在于特定对象附近的著名建筑物的信息、关于存在于特定对象附近的著名旅游景点的信息等。
控制器124可从移动终端接收周围地理信息,或者可通过分析相机130所获得的视频来识别该信息。例如,如果控制器124识别出关于存在于特定对象附近的著名旅游景点的信息,则控制器124可基于所识别的信息将拍摄构图改变为将著名旅游景点连同特定对象一起拍摄。在这种情况下,如果识别出特定对象的状态改变为兴奋状态并且不存在特定对象的移动,则控制器124将它识别为特定对象正在参观旅游景点。因此,控制器124可将拍摄构图改变为主要拍摄旅游景点而非特定对象。
另外,控制器124可基于在步骤S330中改变的拍摄构图来确定特定对象的拍摄角度和特定对象的拍摄位置中的至少一个(S340)。拍摄角度可对应于在空中拍摄特定对象的角度。在这种情况下,拍摄角度可对应于通过改变无人机的飞行路径、无人机的高度、相机130的移动等而改变的角度。
例如,当假设特定对象没有移动时,如果在改变无人机的高度的同时经由相机130连续地拍摄特定对象,则特定对象的拍摄角度改变。因此,如果确定拍摄角度,则可确定无人机的飞行路径、无人机的高度和相机130的移动。
特定对象的拍摄位置对应于拍摄特定对象的位置。拍摄位置可对应于特定对象的前面、后面、右面或左面。作为示例,如果特定对象的拍摄位置对应于特定对象的后面,则无人机可在特定对象的背后跟踪特定对象的同时拍摄特定对象。
作为不同的示例,如果特定对象的拍摄位置对应于特定对象的右面,则无人机可在按照与特定对象的速度相同的速度在特定对象的右侧飞行的同时拍摄特定对象。分别与拍摄构图对应的拍摄位置和拍摄角度可被预先存储在存储器122中。
控制器124可控制飞行单元110以使得无人机基于所确定的特定对象的拍摄位置以及所确定的特定对象的拍摄角度中的至少一个来飞行(S350)。利用特定对象的拍摄位置和特定对象的拍摄角度设定无人机的飞行路径的算法可被预先存储在存储器122中。
控制器124可通过基于所确定的特定对象的拍摄位置和所确定的特定对象的拍摄角度中的至少一个而控制相机130的移动来拍摄特定对象(S360)。利用特定对象的拍摄位置和特定对象的拍摄角度设定相机130的移动的算法可被预先存储在存储器122中。
因此,用于拍摄特定对象的拍摄构图基于特定对象的运动变化和特定对象的状态变化而改变。根据改变的拍摄构图来确定无人机100的飞行路径和相机的移动。
根据本发明的一个实施方式,控制器124可控制通信单元121将经由改变的拍摄构图拍摄的包括特定对象的视频发送给连接通信的移动终端。根据本实施方式,尽管没有控制无人机的人,可利用无人机拍摄各种构图的视频。
接下来,图4是示出当不存在特定对象的运动变化和状态变化时在根据本发明的一个实施方式的无人机中拍摄特定对象的方法的示例的示图。
根据本发明的一个实施方式,控制器124可控制通信单元121从移动终端接收移动终端所获得的感测数据。在这种情况下,感测数据可包括关于移动终端的移动方向的信息、关于移动终端的速度的信息、关于移动终端的位置的信息、关于移动终端的高度的信息、关于特定对象的姿态的信息、关于特定对象的脉搏的信息、关于特定对象的呼吸的信息、关于特定对象的体温的信息以及关于特定对象的排汗量的信息中的至少一个。
根据实施方式,控制器124可识别特定对象的当前活动的类型。在图4中,为了清晰,假设特定对象的当前活动的类型对应于滑雪活动。参照图4的(a)和(b),如果控制器124基于所接收到的感测数据识别出不存在特定对象400的运动变化和状态变化,则控制器124可利用第一拍摄构图来拍摄特定对象400。
首先,在下文中说明不存在特定对象400的运动变化时的情况。如果基于包括在所接收到的感测数据中的关于移动终端的移动方向的信息识别出不存在移动方向的变化,则控制器124可将它识别为不存在特定对象400的运动变化。
如果基于包括在所接收到的感测数据中的关于移动终端的速度的信息没有识别出速度,则控制器124可将它识别为不存在特定对象400的运动变化。如果基于包括在所接收到的感测数据中的关于移动终端的位置的信息没有识别出位置变化,则控制器124可将它识别为不存在特定对象400的运动变化。如果基于包括在所接收到的感测数据中的关于移动终端的高度的信息识别出不存在高度变化,则控制器124可将它识别为不存在特定对象400的运动变化。
然而,如果识别出与上述情况相反的至少一种情况,则控制器124可将它识别为存在特定对象400的运动变化。在下文中,说明不存在特定对象400的状态变化时的情况。
如果基于包括在所接收到的感测数据中的关于特定对象400的姿态的信息识别出特定对象400的姿态对应于属于预定级别的姿态的姿态(例如,诸如挥手的姿态、热身的姿态等的简单姿态),则控制器124可将它识别为不存在特定对象400的状态变化。
如果基于包括在所接收到的感测数据中的关于特定对象400的脉搏的信息识别出特定对象400的当前脉搏率对应于平均脉搏率,则控制器124可将它识别为不存在特定对象400的状态变化。如果基于包括在所接收到的感测数据中的关于特定对象400的呼吸的信息识别出特定对象400的当前呼吸模式对应于平常呼吸模式,则控制器124可将它识别为不存在特定对象400的状态变化。
如果基于包括在所接收到的感测数据中的关于特定对象400的排汗量的信息识别出特定对象400的当前排汗量对应于平常排汗量,则控制器124可将它识别为不存在特定对象400的状态变化。然而,如果识别出与上述情况相反的至少一种情况,则控制器124可将它识别为存在特定对象400的状态变化。
此外,参照图4的(a),第一拍摄构图可对应于将特定对象400(例如,移动终端的用户的上半身)与背景一起拍摄的拍摄构图。控制器124可基于第一拍摄构图来确定特定对象400的拍摄角度和特定对象400的拍摄位置中的至少一个。
具体地讲,参照图4的(b),为了利用图4的(a)所示的拍摄构图来拍摄特定对象400,控制器124可控制飞行单元110以使得无人机100在与特定对象远离开预定距离(a)的位置以及与特定对象远离开预定高度(h)那么高的位置处飞行。
第一拍摄构图可不限于上述内容。第一拍摄构图可对应于主要拍摄背景的构图。在这种情况下,控制器124配置无人机的飞行路径并且可控制飞行单元110以使得无人机在特定对象400上方飞行。并且,在无人机在飞行路径上方飞行并且相机仅拍摄背景的同时,控制器124可不时地控制相机130的移动以拍摄特定对象400。
接下来,图5至图8是示出根据本发明的一个实施方式的基于特定对象的运动变化和状态变化中的至少一个来改变无人机的拍摄构图的方法的示例的示图。
根据本发明的一个实施方式,控制器124可控制通信单元121从移动终端接收移动终端所获得的感测数据。在这种情况下,感测数据可包括关于移动终端的移动方向的信息、关于移动终端的速度的信息、关于移动终端的位置的信息、关于移动终端的高度的信息、关于特定对象的姿态的信息、关于特定对象的脉搏的信息、关于特定对象的呼吸的信息、关于特定对象的体温的信息以及关于特定对象的排汗量的信息中的至少一个。
根据实施方式,控制器124可识别特定对象的当前活动的类型。在图5至图8中,为了清晰,假设特定对象的当前活动的类型对应于滑雪活动。参照图5至图8,如果基于所接收到的感测数据检测到特定对象400的运动变化和特定对象的状态变化中的至少一个,则控制器124可改变拍摄构图。
首先,在下文中说明特定对象400的运动变化的识别。如果基于包括在所接收到的感测数据中的关于移动终端的移动方向的信息识别出存在移动方向的变化,则控制器124可将它识别为存在特定对象400的运动变化。
如果基于包括在所接收到的感测数据中的关于移动终端的速度的信息识别出速度,则控制器124可将它识别为存在特定对象400的运动变化。如果基于包括在所接收到的感测数据中的关于移动终端的位置的信息识别出位置变化,则控制器124可将它识别为存在特定对象400的运动变化。
如果基于包括在所接收到的感测数据中的关于移动终端的高度的信息识别出存在高度变化,则控制器124可将它识别为存在特定对象400的运动变化。因此,如果识别出上述情况中的至少一个,则控制器124可将它识别为存在特定对象400的运动变化。
在下文中,说明特定对象400的状态变化的识别。如果基于包括在所接收到的感测数据中的关于特定对象400的姿态的信息识别出特定对象400的姿态对应于特定姿态(例如,滑雪姿态),则控制器124可将它识别为存在特定对象400的状态变化。
如果基于包括在所接收到的感测数据中的关于特定对象400的脉搏的信息识别出特定对象400的当前脉搏率与平均脉搏率相比已增加,则控制器124可将它识别为存在特定对象400的状态变化。如果基于包括在所接收到的感测数据中的关于特定对象400的呼吸的信息识别出特定对象400的当前呼吸模式变得比平常呼吸模式快,则控制器124可将它识别为存在特定对象400的状态变化。
如果基于包括在所接收到的感测数据中的关于特定对象400的排汗量的信息识别出特定对象400的当前排汗量与平常排汗量相比已增加,则控制器124可将它识别为存在特定对象400的状态变化。因此,如果识别出上述情况中的至少一个,则控制器124可将它识别为存在特定对象400的状态变化。
如果基于所接收到的感测数据检测到特定对象400的运动变化和特定对象400的状态变化中的至少一个,则控制器124可将拍摄构图改变为第二拍摄构图。
参照图5的(a),第二拍摄构图可对应于在特定对象400的侧面拍摄特定对象400(例如,移动终端的用户)的全身的拍摄构图。控制器124可基于第二拍摄构图来确定特定对象400的拍摄角度和特定对象400的拍摄位置中的至少一个。
具体地讲,参照图5的(b),为了利用图5的(a)所示的拍摄构图来拍摄特定对象400,控制器124可控制飞行单元110使得无人机100维持在与特定对象远离开预定距离(a)和预定高度(h)的位置并且以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。为了利用图5的(a)所示的拍摄构图来拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
然而,第二拍摄构图可不限于上述内容。第二拍摄构图可对应于不同的拍摄构图。作为示例,第二拍摄构图可对应于在特定对象400的背后拍摄特定对象400的全身的拍摄构图。
在这种情况下,参照图6的(a),控制器124可控制飞行单元110使得无人机100维持在与特定对象远离开预定距离(a)和预定高度(h)的位置并且在特定对象400的背后以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
作为不同的示例,第二拍摄构图可对应于在特定对象400上方环绕飞行的同时拍摄特定对象400的全身的拍摄构图。在这种情况下,参照图6的(b),控制器124可控制飞行单元110使得无人机100维持在与特定对象远离开预定距离(a)和预定高度(h)的位置并且在特定对象400上方环绕飞行。并且,为了尽管无人机100的位置改变也连续地拍摄特定对象400,控制器124可控制相机130的移动。
第二拍摄构图的上述示例仅是示例。第二拍摄构图可对应于不同于上述拍摄构图的拍摄构图。根据实施方式,特定对象400的拍摄构图可基于特定对象400的运动变化的程度和特定对象400的状态变化的程度中的至少一个而改变。
具体地讲,如果特定对象400的速度等于或小于预定速度并且特定对象400的高度变化的程度等于或小于预定程度,则控制器124可将特定对象400的运动变化的程度识别为第一程度。控制器180可利用关于特定对象400的姿态是否对应于速度等于或小于预定速度的滑雪姿态的信息、关于特定对象400的脉搏是否偏离平均脉搏预定范围那么多的信息、关于特定对象400的呼吸与平常呼吸模式相比是否改变预定范围那么多的信息以及关于特定对象400的体温和排汗量是否偏离平均体温和平常排汗量预定程度那么多的信息来识别特定对象400的状态变化是否对应于第二程度。
如果基于所接收到的感测数据识别出特定对象400的运动变化对应于第一程度并且特定对象400的状态变化对应于第二程度,则控制器124可将拍摄构图改变为早前图5的(a)中所提及的第二拍摄构图。
如果基于所接收到的感测数据识别出特定对象400的运动变化对应于第三程度或者特定对象400的状态变化对应于第四程度,则控制器124可通过将拍摄构图改变为第三拍摄构图来拍摄特定对象400。在这种情况下,第三拍摄构图可对应于不同于第二拍摄构图的拍摄构图。
具体地讲,如果特定对象400的速度超过预定速度并且特定对象400的高度变化的程度超过预定程度,则控制器124可将特定对象400的运动变化的程度识别为第三程度。
控制器124可利用关于特定对象400的姿态是否对应于当超过预定速度时所出现的姿态的信息、关于特定对象400的脉搏是否偏离平均脉搏预定范围那么多的信息、关于特定对象400的呼吸与平常呼吸模式相比是否改变预定范围那么多的信息以及关于特定对象400的体温和排汗量是否偏离平均体温和平常排汗量预定程度那么多的信息来识别特定对象400的状态变化的程度是否对应于第四程度。
如图7的(a)所示,第三拍摄构图可对应于在特定对象400的前方拍摄特定对象400的全身的拍摄构图。在这种情况下,参照图7的(b),控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象400的前方以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
如果控制器124基于特定对象的运动变化和特定对象400的状态变化识别出拍摄结束定时,则控制器124可改变拍摄构图。具体地讲,如果控制器124识别出特定对象400的运动变化减小的情况和特定对象400的状态从兴奋状态改变为稳定状态的情况当中的至少一种情况,则控制器124可将拍摄构图改变为第四拍摄构图。如图8的(a)所示,第四拍摄构图可对应于主要在特定对象400的前方拍摄特定对象400的脸部表情和特定对象400的姿势的拍摄构图。
控制器124可基于第四拍摄构图来确定特定对象400的拍摄角度和特定对象400的拍摄位置中的至少一个。具体地讲,参照图8的(b),为了利用早前图8的(a)中提及的拍摄构图来拍摄特定对象400,控制器124可控制飞行单元110使得无人机100在特定对象400的前方维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置的同时飞行。并且,为了利用早前图8的(a)中提及的拍摄构图来拍摄特定对象400,控制器124可通过控制相机300的移动来改变相机的拍摄角度。
上述实施方式可考虑移动终端的用户的各种情况来利用各种构图拍摄用户,而无需单独的人来控制无人机。
此外,根据本发明的实施方式,无人机识别特定对象的活动的类型并且可考虑所识别的特定对象的活动的类型来改变拍摄构图。关于此,在下文中参照图9更详细地说明。
图9是示出在根据本发明的一个实施方式的无人机中根据特定对象的活动的类型来改变拍摄构图的方法的示例的示图。关于图9,与图1至图8交叠的内容的说明被省略。在下文中,主要说明不同之处。
根据本发明的一个实施方式,控制器124可控制通信单元121从连接通信的移动终端接收感测数据。控制器124可基于感测数据来识别特定对象的运动变化和特定对象的状态变化中的至少一个。
控制器124可识别特定对象的活动的类型。特定对象的当前活动的类型可基于特定对象的运动变化和特定对象的状态变化中的至少一个来识别,或者可通过向无人机发送关于在移动终端中选择的活动的信息来识别。
假设在图9的(a)中特定对象400的活动的类型被识别为跑步并且在图9的(b)中特定对象400的活动的类型被识别为滑雪。参照图9的(a),控制器124将特定对象400的活动的类型识别为跑步。如果识别出特定对象400的运动变化和特定对象400的状态变化,则控制器124可将拍摄构图改变为第一拍摄构图。
在这种情况下,第一拍摄构图可对应于在特定对象400的前方以与特定对象400的速度相同的速度移动的同时在空中拍摄特定对象400的拍摄构图。另外,控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象400的前方以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
参照图9的(b),控制器124将特定对象400的活动的类型识别为滑雪。如果识别出特定对象400的运动变化和特定对象400的状态变化,则控制器124可将拍摄构图改变为第二拍摄构图。在这种情况下,第二拍摄构图可对应于在特定对象400的背后以与特定对象400的速度相同的速度移动的同时在空中拍摄特定对象400的拍摄构图。
另外,控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象400的背后以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
因此,特定对象400的拍摄构图可根据特定对象400的活动的类型而变化。关于适合于各个活动类型的拍摄构图的信息可被预先存储在存储器122中。根据本实施方式,无人机自动地设定适合于特定对象的活动类型的拍摄构图以拍摄特定对象。因此,可在没有专业摄影师的情况下拍摄优异的视频。
此外,根据本发明的实施方式,无人机识别周围地理信息,然后可考虑所识别的周围地理信息来改变拍摄构图。关于此,在下文中参照图10更详细地说明。
具体地讲,图10是示出在根据本发明的一个实施方式的无人机中根据周围地理环境来改变拍摄构图的方法的示例的示图。
根据本发明的一个实施方式,控制器124可控制通信单元121从连接通信的移动终端接收感测数据。控制器124可基于感测数据来识别特定对象的运动变化和特定对象的状态变化中的至少一个。
控制器124可识别特定对象的周围地理信息。在这种情况下,周围地理信息可包括关于特定对象附近的斜坡的信息、关于存在于特定对象附近的障碍的信息等,本发明可不限于此。周围地理信息还可包括关于存在于特定对象附近的著名建筑物的信息、关于存在于特定对象附近的旅游景点的信息等。
控制器124可从移动终端接收周围地理信息或者可通过分析相机130所拍摄的视频来识别周围地理信息。假设在图10的(a)中识别为在特定对象400附近存在障碍,在图10的(b)中识别为在特定对象400附近不存在障碍。
参照图10的(a),控制器124基于特定对象400的周围地理信息识别出在特定对象400附近存在障碍。如果识别出特定对象400的运动变化和特定对象的状态变化,则控制器124可将拍摄构图改变为第一拍摄构图。
在这种情况下,第一拍摄构图可对应于在特定对象400的背后以与特定对象400的速度相同的速度移动的同时在空中拍摄特定对象400的拍摄构图。
在这种情况下,控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象400的背后以与特定对象400的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
参照图10的(b),控制器124基于特定对象400的周围地理信息识别出在特定对象400附近不存在障碍。如果识别出特定对象400的运动变化和特定对象的状态变化,则控制器124可将拍摄构图改变为第二拍摄构图。
在这种情况下,第二拍摄构图可对应于在特定对象400上方环绕飞行的同时拍摄特定对象400的全身的拍摄构图。另外,控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象400上方环绕飞行。并且,为了尽管无人机100的位置改变也连续地拍摄特定对象400,控制器124可控制相机130的移动。
因此,特定对象400的拍摄构图可根据特定对象400的周围地理信息而变化。关于适合于周围地理信息的拍摄构图的信息可被预先存储在存储器122中。
根据本实施方式,无人机自动地设定适合于特定对象的周围地理信息的拍摄构图以拍摄特定对象。因此,可在没有专业摄影师的情况下拍摄优异的视频。
根据本发明的一个实施方式,所拍摄的视频可被发送给连接通信的移动终端。可在移动终端中基于关于拍摄视频的位置的信息、关于在拍摄视频的时间特定对象的状态变化的信息以及关于在拍摄视频的时间特定对象的运动变化的信息中的至少一个来布置视频。关于此,在下文中参照图11至图13更详细地说明。
图11是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的示例的示图。关于图11,与早前图1至图10中提及的内容交叠的内容的说明被省略。在下文中主要说明不同之处。
根据本发明的一个实施方式,无人机100接收移动终端所获得的感测数据并且可基于感测数据来经由相机130拍摄特定对象。无人机100可将经由相机130拍摄的视频发送给移动终端。
移动终端100可在接收视频时获得关于拍摄视频的位置的信息。作为示例,当接收视频时,移动终端还可接收关于拍摄视频的位置的信息以接收关于拍摄视频的位置的信息。
作为不同的示例,如果移动终端的位置随着时间过去而改变,则移动终端可在存储器中存储根据时间变化的移动终端的位置信息。如果移动终端接收视频并且获得关于拍摄视频的时间的信息,则移动终端可识别在拍摄视频的时间移动终端的位置信息。移动终端可基于所识别的位置信息来获得关于拍摄视频的位置的信息。
获得拍摄视频的位置的算法可被预先存储在移动终端的存储器中。移动终端可在接收视频时将视频存储在存储器中。关于拍摄视频的位置的信息在视频被存储在存储器中时也可被存储在存储器中。
此外,从无人机接收的至少一个或更多个视频可被存储在移动终端中。移动终端可根据显示所述至少一个或更多个视频的命令在画面上显示与所述至少一个或更多个视频对应的各个缩略图。
参照图11的(a)和(b),如果检测到选择包括在移动终端的用户所选择的菜单窗口500中的第一指示物501的命令(图11的(a)),则移动终端可基于关于拍摄视频的位置的信息在互联网上搜索与位置信息对应的地图。移动终端可在画面上输出搜索到的地图。在这种情况下,移动终端可在所输出的地图中向无人机100所拍摄的视频的路径提供特定视觉效果(图11的(b))。
例如,如果无人机在第一路径和第二路径上拍摄视频,则移动终端可分别向与第一路径对应的第一区域610以及与第二路径对应的第二区域620提供预定视觉效果。根据实施方式,可分别向第一区域610和第二区域620提供第一视觉效果和第二视觉效果。具体地讲,第一视觉效果可不同于第二视觉效果(例如,由不同颜色表示的视觉效果)。
如图11的(b)所示,如果检测到选择第一区域610的命令,则移动终端可从存储器提取在与第一区域610对应的第一路径处拍摄的至少一个或更多个视频。移动终端可利用所提取的至少一个或更多个视频来提取至少一个或更多个缩略图。并且,如图11的(c)所示,移动终端可在画面上显示所提取的至少一个或更多个缩略图。
所提取的至少一个或更多个缩略图可对应于所提取的至少一个或更多个视频的代表性缩略图。从视频提取代表性缩略图的算法可被预先存储在存储器中。
如果检测到从显示在画面上的至少一个或更多个缩略图当中选择特定缩略图的命令,则移动终端可输出与所选择的缩略图对应的视频。根据上述实施方式,当存在由无人机拍摄的许多视频时,用户可利用拍摄视频的位置容易地找出用户优选的视频。
接下来,图12是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的不同示例的示图。根据本发明的一个实施方式,无人机100接收移动终端所获得的感测数据并且可基于感测数据来经由相机130拍摄特定对象(例如,移动终端的用户)。无人机100可将经由相机130拍摄的视频发送给移动终端。
当接收视频时,移动终端100可获得关于在拍摄视频的时间特定对象的状态的信息。作为示例,当接收视频时,移动终端还可接收关于特定对象的状态的信息以接收关于特定对象的状态的信息。
作为不同的示例,如果移动终端的位置随着时间过去而改变,则移动终端可在存储器中存储根据时间变化的移动终端的用户的状态。如果移动终端接收视频并且获得关于拍摄视频的时间的信息,则移动终端可识别在拍摄视频的时间移动终端的用户的状态。移动终端可基于所识别的用户的状态来获得关于在拍摄视频的时间特定对象的状态的信息。
获得在拍摄视频的时间特定对象的状态信息的算法可被预先存储在移动终端的存储器中。移动终端可在接收视频时将视频存储在存储器中。在拍摄视频的时间特定对象的状态信息在视频被存储在存储器中时也可被存储在存储器中。
关于图12,假设由无人机拍摄的多个视频被存储在存储器中。如果检测到选择包括在移动终端的用户所选择的菜单窗口500中的第二指示物502的命令(图12的(a)),则移动终端可基于在拍摄多个视频中的每一个的时间特定对象的状态信息来布置所述多个视频(图12的(b))。
具体地讲,特定对象的状态可被分成第一状态、第二状态和第三状态。第一状态(例如,极其兴奋状态)对应于特定对象处于非常兴奋状态的状态。第一状态对应于特定对象的体温、特定对象的脉搏等超过第一程度和第二程度的状态。
第二状态(例如,适度兴奋状态)对应于特定对象处于适度兴奋状态的状态。第二状态对应于特定对象的体温、特定对象的脉搏等在第一程度内但是超过第二程度的状态。
第三状态(例如,稳定状态)对应于特定对象处于稳定状态的状态。第三状态对应于特定对象的体温、特定对象的脉搏等在第一程度和第二程度内的状态。
在多个图像当中,移动终端可将特定对象的状态对应于第一状态的至少一个或更多个缩略图显示在第一区域710上。在多个图像当中,移动终端可将特定对象的状态对应于第二状态的至少一个或更多个缩略图显示在第二区域720上。在多个图像当中,移动终端可将特定对象的状态对应于第三状态的至少一个或更多个缩略图显示在第三区域730上。
在这种情况下,第一区域可对应于位于画面的顶部的区域,第二区域可对应于位于第一区域710下面的区域,第三区域可对应于位于第一区域710和第二区域720二者下面的区域。
移动终端可在画面上所显示的各个缩略图上显示指示特定对象的状态的指示物。例如,移动终端可在显示在第一区域710上的缩略图上显示第一指示物(I1),在显示在第二区域720上的缩略图上显示第二指示物(I2),在显示在第三区域730上的缩略图上显示第三指示物(I3)。
如果检测到从显示在画面上的至少一个或更多个缩略图当中选择特定缩略图的命令,则移动终端可输出与所选择的缩略图对应的视频。根据上述实施方式,当存在由无人机拍摄的许多视频时,用户可从视频当中容易地找出用户优选的视频。
图13是示出根据本发明的一个实施方式的在移动终端中布置无人机所拍摄的视频的方法的另一不同示例的示图。根据本发明的一个实施方式,无人机100接收移动终端所获得的感测数据并且可基于感测数据来经由相机130拍摄特定对象(例如,移动终端的用户)。无人机100可将经由相机130拍摄的视频发送给移动终端。
当接收视频时,移动终端100可获得关于在拍摄视频的时间特定对象的运动变化的信息。在这种情况下,关于特定对象的运动变化的信息可对应于指示在拍摄视频的时间移动终端的用户的移动速度的信息。
作为示例,当接收视频时,移动终端还可接收关于特定对象的运动变化的信息以接收关于特定对象的运动变化的信息。作为不同的示例,如果移动终端的用户的运动随着时间过去而改变,则移动终端可在存储器中存储根据时间变化的移动终端的用户的运动。
如果移动终端接收视频并且获得关于拍摄视频的时间的信息,则移动终端可识别在拍摄视频的时间移动终端的用户的运动变化。移动终端可基于所识别的用户的运动变化来获得关于在拍摄视频的时间特定对象的运动变化的信息。
获得关于在拍摄视频的时间特定对象的运动变化的信息的算法可被预先存储在移动终端的存储器中。移动终端可在接收视频时将视频存储在存储器中。关于在拍摄视频的时间特定对象的运动变化的信息在视频被存储在存储器中时也可被存储在存储器中。
关于图13,假设由无人机拍摄的多个视频被存储在存储器中。如果检测到选择包括在移动终端的用户所选择的菜单窗口500中的第三指示物503的命令(图13的(a)),则移动终端可基于关于在拍摄多个视频中的每一个的时间特定对象的运动变化的信息来布置所述多个视频(图13的(b))。
具体地讲,特定对象的运动变化的程度可被分成第一程度、第二程度和第三程度。第一程度对应于特定对象以最快速度移动的程度。第一程度可对应于特定对象的速度超过第一速度和第二速度的状态。
第二程度对应于特定对象以中等速度移动的程度。第二程度可对应于特定对象的速度等于或慢于第一速度并且特定对象的速度超过第二速度的状态。第三程度对应于特定对象以最慢速度移动的程度。第三程度可对应于特定对象的速度等于或慢于第一速度和第二速度的状态。
在多个图像当中,移动终端可将特定对象的运动变化对应于第一程度的至少一个或更多个缩略图显示在第一区域710上。在多个图像当中,移动终端可将特定对象的运动变化对应于第二程度的至少一个或更多个缩略图显示在第二区域720上。在多个图像当中,移动终端可将特定对象的运动变化对应于第三程度的至少一个或更多个缩略图显示在第三区域730上。
在这种情况下,第一区域可对应于位于画面的顶部的区域,第二区域可对应于位于第一区域710下面的区域,第三区域可对应于位于第一区域710和第二区域720二者下面的区域。移动终端可在画面上所显示的各个缩略图上显示指示特定对象的运动变化的程度的指示物。
例如,移动终端可在显示在第一区域710上的缩略图上显示第一指示物(I4),在显示在第二区域720上的缩略图上显示第二指示物(I5),在显示在第三区域730上的缩略图上显示第三指示物(I6)。如果检测到从显示在画面上的至少一个或更多个缩略图当中选择特定缩略图的命令,则移动终端可输出与所选择的缩略图对应的视频。
根据上述实施方式,如果存在由无人机拍摄的许多视频,则用户可从视频当中容易地找出用户优选的视频。此外,根据本发明的一个实施方式,移动终端的用户可利用显示在移动终端上的预览图像来控制无人机。关于此,在下文中参照图14至图17更详细地说明。
图14至图17是示出根据本发明的一个实施方式的无人机的控制方法的示例的示图。根据本发明的一个实施方式,当由无人机100拍摄的预览图像显示在移动终端上时,如果接收到将触摸预览图像的指点物向指定方向移动的用户输入,则无人机100可朝着与输入到移动终端的拖曳方向相反的方向(或者拖曳方向)移动。
作为示例,如果触摸预览图像的指点物向左拖曳(参照图14的(a)),则移动终端可向无人机100发送控制信号以指示无人机向右移动。随着无人机100向左移动,如图14的(b)所示,显示在移动终端上的预览图像的构图也改变。
作为不同的示例,如果触摸预览图像的指点物向左拖曳(参照图15的(a))并且触摸被连续地维持(图15的(b)),则移动终端可向无人机100发送控制信号以指示无人机向右移动。随着无人机100向左移动,如图15的(b)所示,显示在移动终端上的预览图像的构图也改变。然而,如图15的(c)所示,如果触摸被释放,则移动终端可向无人机发送控制信号以指示无人机停止移动。在这种情况下,如图15的(c)所示,从停止的位置拍摄的预览图像可显示在移动终端上。
在另一示例中,如果触摸预览图像的指点物向左拖曳(参照图16的(a)),则移动终端可向无人机100发送控制信号以指示无人机向右移动。然而,如图16的(b)和(c)所示,它可识别移动终端上的触摸输入的触摸强度,然后可根据所识别的触摸强度来改变无人机的移动速度。具体地讲,参照图16的(b),如果移动终端将移动终端上的触摸输入的触摸强度识别为第一压力,则移动终端可向无人机100发送控制信号以指示无人机以与第一压力对应的第一速度向右移动。参照图16的(c),如果移动终端将移动终端上的触摸输入的触摸强度识别为第二压力,则移动终端可向无人机100发送控制信号以指示无人机以与第二压力对应的第二速度向右移动。
在另一示例中,如果在经由移动终端显示从无人机100接收的预览图像时接收到缩小输入或放大输入,则移动终端可向无人机100发送控制信号以指示无人机向前或向后移动。例如,如图17的(a)所示,如果接收到触摸预览图像并且增大两个指点物之间的距离的触摸输入(即,放大输入),则移动终端可向无人机发送控制信号以指示无人机向前移动。随着无人机向前移动,显示在移动终端上的预览图像的构图也改变。图17的(b)示出在预览图像中拍摄用户的全身的构图改变为拍摄用户的上半身的构图的示例。根据上述实施方式,可利用对显示在移动终端上的图像的单个触摸输入来控制无人机。
图18至图21是示出由无人机通过改变存储在移动终端的存储器中的视频的拍摄构图来拍摄视频的方法的示例的示图。
根据本发明的一个实施方式,控制无人机的移动终端识别存储在存储器中的视频的拍摄构图并且可控制无人机基于所识别的拍摄构图来拍摄特定对象。
具体地讲,控制无人机的移动终端可将多个视频存储在存储器中。移动终端可识别用户从存储在存储器中的多个视频当中选择的视频的拍摄构图。作为示例,关于映射至视频的拍摄构图的信息可被存储在移动终端的存储器中。移动终端可经由存储器来识别用户所选择的视频的拍摄构图。
作为不同的示例,移动终端可识别包括在视频中的特定对象。移动终端可利用所识别的特定对象的位置以及所识别的特定对象的姿势来识别拍摄构图。在这种情况下,用于识别用户所选择的视频的拍摄构图的算法可被预先存储在存储器中。
如果检测到根据所识别的拍摄构图拍摄特定对象的命令,则移动终端可向无人机发送控制信号以通过控制无人机的飞行路径和无人机的相机130的移动来拍摄特定对象。无人机100可利用移动终端所发送的信号来确定特定对象的拍摄位置和特定对象的拍摄角度。无人机100控制飞行单元110使得无人机基于所确定的特定对象的拍摄位置和所确定的特定对象的拍摄角度中的至少一个来飞行,并且可控制相机130以控制相机130的移动。
然而,用户所选择的视频的拍摄构图当中可能存在用户不满意的拍摄构图。在这种情况下,根据本发明的实施方式,用户可仅改变用户所选择的视频的拍摄构图的一部分。因此,无人机可利用用户所选择的视频的拍摄构图以及拍摄构图的一部分被用户改变的拍摄构图来拍摄特定对象。
具体地讲,当用户经由观移动终端看视频时,如果用户发现用户不满意的拍摄构图,将视频暂停在通过不满意的拍摄构图拍摄的部分处(参照图18的(a)),并且选择拍摄构图改变指示物(参照图18的(b)),则移动终端可显示用于改变拍摄构图的画面(参照图18的(c))。通过这样做,用户可改变暂停的部分的拍摄构图。基于暂停的视频的拍摄构图生成的虚拟对象可显示在用于改变拍摄构图的画面上。在这种情况下,对包括在暂停的视频中的特定对象执行3D建模,所述特定对象可作为虚拟对象显示。
用户可通过在图18的(c)所示的画面上输入触摸输入来改变拍摄构图。作为示例,当显示虚拟对象的侧面时,如果用户触摸用于改变拍摄构图的画面的一点并且向左拖曳触摸(参照图19的(a)),则如图19的(b)所示,移动终端可在用于改变拍摄构图的画面上显示虚拟对象的正面。在这种情况下,用于拍摄特定对象的拍摄构图可从拍摄特定对象的侧面的拍摄构图改变为拍摄特定对象的正面的拍摄构图。
作为不同的示例,当虚拟对象的正面通过放大来显示时,如果用户输入触摸用于改变拍摄构图的画面的两个随机点并且在两个点之间的距离减小的方向上拖曳触摸的触摸输入(即,缩小输入)(参照图20的(a)),则如图20的(b)所示,移动终端可通过减小虚拟对象的尺寸来在用于改变拍摄构图的画面上显示虚拟对象。在这种情况下,用于拍摄特定对象的拍摄构图可从拍摄远离特定对象的位置的拍摄构图改变为拍摄特定对象的拍摄构图。
当用户改变拍摄构图时,由于无人机根据所改变的拍摄构图移动并拍摄视频需要花费时间,可能存在无法改变拍摄构图的区段。因此,移动终端可计算无人机根据所改变的拍摄构图移动所花费的时间。参照图21,移动终端可为进度条中基于所计算的时间无法被修改的区段(P)提供预定视觉效果(例如,不同的颜色)。在这种情况下,用户无法改变区段(P)的拍摄构图,除非用户取消根据所改变的拍摄构图的拍摄。
如果用户选择第一图标810,则移动终端可从图18的(a)中暂停的时刻开始再次播放视频。如果用户选择第二图标820,则移动终端识别图18的(a)的暂停时刻之后的视频的拍摄构图,然后可基于所识别的拍摄构图来继续输出虚拟对象。
此外,在用户完成拍摄构图的改变之后,如果输入基于所改变的拍摄构图执行拍摄的命令,则移动终端可向无人机100发送用于控制无人机100的飞行路径和相机300的移动的控制信号以基于所改变的拍摄构图来拍摄特定对象。
因此,根据上述实施方式,用户可经由无人机利用存储在移动终端的存储器中的视频的拍摄构图来拍摄新的视频,或者可通过修改存储在移动终端的存储器中的视频的拍摄构图的一部分来经由无人机拍摄新的视频。
基于特定对象的速度来拍摄特定对象的方法
为了利用无人机拍摄具有各种拍摄构图的特定对象,有必要有人来控制无人机。因此,存在无人机无法自己基于特定对象的移动速度自动地以各种构图来拍摄的问题。
根据本发明的一个实施方式,为了解决上述问题,无人机可识别特定对象的速度并且基于所识别的速度自主地改变拍摄构图以拍摄特定对象。在下文中,参照图22说明基于特定对象的速度拍摄特定对象的方法。
图22是示出根据本发明的一个实施方式的由无人机根据特定对象的速度来拍摄特定对象的方法的流程图。关于图22,与早前图1至图21中提及的内容交叠的内容的说明被省略。在下文中主要说明不同之处。
根据本发明的一个实施方式,无人机100的控制器124可控制通信单元121与控制无人机的移动终端通信。在这种情况下,控制无人机的移动终端可对应于选自移动电话、智能电话、用于控制无人机的特定外部终端和手表型移动终端中的一种。
如果从移动终端接收到在特定拍摄模式下拍摄特定对象的信号,则无人机100的控制器124可控制相机130拍摄特定对象。在这种情况下,所述特定拍摄模式可对应于在与特定对象维持预定距离那么大的距离的同时连续地拍摄特定对象的拍摄模式以及根据特定对象的速度改变拍摄构图的拍摄模式。
所述特定对象可对应于移动终端的用户。具体地讲,由于无人机100通过远离开移动终端预定距离来拍摄移动终端,持握移动终端的用户也被拍摄。因此,持握移动终端的用户可成为特定对象。
控制器124可控制飞行单元110在所述特定拍摄模式下跟踪特定对象的同时飞行,并且控制相机131的移动以连续地拍摄特定对象。控制器124可识别特定对象的速度(S310)。
具体地讲,控制器124可识别无人机100的当前速度和无人机100的飞行路径。控制器124可利用所识别的无人机100的当前速度、所识别的无人机100的飞行路径以及相机130所拍摄的视频中的至少一个来识别特定对象的速度。稍后将参照图23至图25来描述识别特定对象的速度的方法。
用于识别无人机100的速度的算法可被预先存储在存储器中。控制器124可基于所识别的速度来改变拍摄构图(S920)。作为示例,如果特定对象的速度对应于第一速度,则控制器124将拍摄构图改变为第一拍摄构图。如果特定对象的速度对应于第二速度,则控制器124将拍摄构图改变为第二拍摄构图。在这种情况下,第一拍摄构图可对应于最适合于以第一速度拍摄视频的拍摄构图,第二拍摄构图可对应于最适合于以第二速度拍摄视频的拍摄构图。
关于映射至各个速度的拍摄构图的信息可被预先存储在存储器122中。控制器124可基于在步骤S920中改变的拍摄构图来确定特定对象的拍摄角度和特定对象的拍摄位置中的至少一个(S930)。拍摄角度可对应于在空中拍摄特定对象的角度。在这种情况下,拍摄角度可对应于通过改变无人机的飞行路径、无人机的高度、相机130的移动等而改变的角度。
因此,如果确定拍摄角度,则可确定无人机的飞行路径、无人机的高度和相机130的移动。特定对象的拍摄位置对应于拍摄特定对象的位置。拍摄位置可对应于特定对象的前面、后面、右面、左面等。
作为示例,如果特定对象的拍摄位置对应于特定对象的后面,则无人机可在特定对象的背后飞行并跟踪特定对象的同时拍摄特定对象。作为不同的示例,如果特定对象的拍摄位置对应于特定对象的右面,则无人机可在以与特定对象的速度相同的速度在特定对象的右侧飞行的同时拍摄特定对象。
与各个拍摄构图对应的拍摄位置和拍摄角度可被预先存储在存储器中。控制器124可控制飞行单元110使得无人机基于所确定的特定对象的拍摄位置和所确定的特定对象的拍摄角度中的至少一个来飞行(S940)。
利用特定对象的拍摄位置和特定对象的拍摄角度设定无人机的飞行路径的算法可被预先存储在存储器122中。控制器124基于所确定的特定对象的拍摄位置和所确定的特定对象的拍摄角度中的至少一个来控制相机130的移动以拍摄特定对象(S950)。
利用特定对象的拍摄位置和特定对象的拍摄角度设定相机的移动的算法可被预先存储在存储器122中。因此,用于拍摄特定对象的拍摄构图基于特定对象的运动变化和特定对象的状态变化而改变。无人机100的飞行路径和相机的移动根据所改变的拍摄构图来确定。
根据本发明的一个实施方式,控制器124可控制通信单元121将根据所改变的拍摄构图拍摄的包括特定对象的视频发送给连接通信的移动终端。根据本实施方式,可基于特定对象的速度拍摄各种构图的视频,而无需人来控制无人机。
识别特定对象的速度的方法
根据本发明的一个实施方式,无人机100可识别特定对象的速度。在下文中,参照图23至图25说明识别特定对象的速度的方法。
图23是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的示例的示图。在下文中主要说明不同之处。在图23中,为了清晰,假设无人机100在特定对象的侧面以与特定对象的速度不同的速度在与特定对象的方向相同的方向上飞行的同时拍摄特定对象。
控制器124可识别无人机100的当前速度和无人机100的飞行路径。在这种情况下,无人机的当前速度可对应于考虑无人机的高度变化、无人机的平面位置变化等基于变化的距离计算的速度。无人机100的飞行路径可基于无人机的飞行高度和无人机100的移动方向来确定。
例如,参照图23的(a),控制器124可利用无人机100的平面移动距离和无人机100的高度变化来识别无人机100的实际移动距离。如果识别出无人机在1秒内移动了与实际移动距离对应的1米,则控制器124可将无人机的当前速度识别为1米/秒。
控制器124可利用所识别的当前速度、所识别的无人机的飞行路径以及经由相机130拍摄的包括特定对象的视频中的至少一个来识别特定对象的移动速度。首先,如果识别出包括在视频中的特定对象400在第一时间位于第一位置(图23的(b)),并且在第二时间特定对象移动到第二位置(图23的(b)),则控制器124可识别在视频中已移动的特定对象400的移动速度。用于识别包括在视频中的特定对象的移动速度的算法可被预先存储在存储器122中。
例如,如果特定对象从第一位置(参照图23的(b))移动到第二位置(参照图23的(c)),则控制器124可将它识别为特定对象移动了1米。如果识别出特定对象移动1米所花费的时间对应于1秒,则控制器124可将视频中特定对象的移动速度识别为1米/秒。
控制器124利用视频来识别特定对象移动的方向,并且可识别无人机100的移动方向是否对应于所识别的方向。如果识别出无人机100的飞行路径对应于所识别的方向,则控制器124将所识别的无人机100的当前速度与从视频获得的特定对象的速度相加,以识别特定对象的速度。
例如,当包括在视频中的特定对象400从第一位置(图23的(b))移动到第二位置(图23的(b))时,如果识别出特定对象的移动方向对应于无人机100的移动方向,则控制器124将无人机的当前速度(1米/秒)与从视频识别的特定对象的移动速度(1米/秒)相加。具体地讲,控制器124可将2米/秒识别为特定对象的速度。
因此,控制器124可利用无人机的当前速度、无人机的飞行路径以及相机130所拍摄的视频中的至少一个来识别特定对象的速度。
图24是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的不同示例的示图。关于图24,与早前图1至图23中提及的内容交叠的内容的说明被省略。在下文中主要说明不同之处。在图24中,为了清晰,假设无人机100在特定对象的前方以与特定对象的速度不同的速度在与特定对象的方向相反的方向上飞行的同时拍摄特定对象。
控制器124可识别无人机100的当前速度和无人机100的飞行路径。在这种情况下,无人机的当前速度可对应于考虑无人机的高度变化、无人机的平面位置变化等基于变化的距离计算的速度。无人机100的移动路径可基于无人机的飞行高度和无人机100的移动方向来确定。
例如,参照图24的(a),控制器124可利用无人机100的平面移动距离和无人机100的高度变化来识别无人机100的实际移动距离。如果识别出无人机在1秒内移动了与实际移动距离对应的1米,则控制器124可将无人机的当前速度识别为1米/秒。
控制器124可利用所识别的当前速度、所识别的无人机的飞行路径以及经由相机130拍摄的包括特定对象的视频中的至少一个来识别特定对象的移动速度。首先,如果识别出包括在视频中的特定对象400在第一时间位于第一位置(图24的(b))并且在第二时间特定对象移动到第二位置(图24的(b)),则控制器124可识别在视频中已移动的特定对象400的移动速度。用于识别包括在视频中的特定对象的移动速度的算法可被预先存储在存储器122中。
例如,如果在视频中特定对象从第一位置(参照图24的(b))移动到第二位置(参照图24的(c)),则控制器124可将它识别为特定对象移动了3米。如果识别出特定对象移动3米所花费的时间对应于1秒,则控制器124可将视频中特定对象的移动速度识别为3米/秒。
控制器124利用视频来识别特定对象移动的方向,并且可识别无人机100的移动方向是否对应于所识别的方向。如果识别出无人机100的飞行路径对应于所识别的方向的相反方向,则控制器124将从所识别的无人机100的当前速度和从视频获得的特定对象的速度当中的较大值减去较小值所得到的值识别为特定对象的速度。
例如,当包括在视频中的特定对象400从第一位置(图24的(b))移动到第二位置(图24的(b))时,如果识别出特定对象的移动方向的相反方向对应于无人机100的移动方向,则控制器124将从视频识别的特定对象的移动速度(3米/秒)减去无人机的当前速度(1米/秒)。具体地讲,控制器124可将2米/秒识别为特定对象的速度。因此,控制器124可利用无人机的当前速度、无人机的飞行路径以及相机130所拍摄的视频中的至少一个来识别特定对象的速度。
图25是示出在根据本发明的一个实施方式的无人机中识别特定对象的速度的方法的另一不同示例的示图。关于图25,与早前图1至图24中提及的内容交叠的内容的说明被省略。在下文中主要说明不同之处。在图25中,为了清晰,假设无人机100在特定对象的侧面以与特定对象的速度相同的速度在与特定对象的方向相同的方向上飞行的同时拍摄特定对象。
控制器124可识别无人机100的当前速度和无人机100的飞行路径。在这种情况下,无人机的当前速度可对应于考虑无人机的高度变化、无人机的平面位置变化等基于变化的距离计算的速度。无人机100的移动路径可基于无人机的飞行高度和无人机100的移动方向来确定。
例如,参照图25的(a),控制器124可利用无人机100的平面移动距离和无人机100的高度变化来识别无人机100的实际移动距离。如果识别出无人机在1秒内移动了与实际移动距离对应的2米,则控制器124可将无人机的当前速度识别为2米/秒。
控制器124可利用所识别的当前速度、所识别的无人机的飞行路径以及经由相机130拍摄的包括特定对象的视频中的至少一个来识别特定对象的移动速度。首先,如果识别出包括在视频中的特定对象400从第一位置(图25的(b))移动到第二位置(图26的(b)),则控制器124可识别在视频中已移动的特定对象400的移动速度。用于识别包括在视频中的特定对象的移动速度的算法可被预先存储在存储器122中。例如,如果识别出包括在视频中的特定对象在第一时间位于第一位置(参照图25的(b))并且特定对象在第二时间位于第一位置(参照图25的(c)),则控制器124可将视频中特定对象的移动识别为0米/秒。
控制器124利用视频来识别特定对象移动的方向,并且可识别无人机100的移动路径是否对应于所识别的方向。如果视频中特定对象的移动速度对应于0米/秒并且无人机100的移动方向对应于特定对象的移动方向,则控制器124可将无人机100的移动速度识别为特定对象的移动速度。因此,控制器124可利用无人机的当前速度、无人机的飞行路径以及相机130所拍摄的视频中的至少一个来识别特定对象的速度。
基于特定对象的速度改变特定对象的拍摄构图的方法
在图23至图25中,说明了识别特定对象的速度的方法。在下文中参照图26说明基于所识别的速度改变拍摄构图的方法。图26是示出在根据本发明的一个实施方式的无人机中基于特定对象的速度改变特定对象的拍摄构图的方法的示例的示图。
根据本发明的一个实施方式,控制器124识别特定对象的速度,基于所识别的速度来改变特定对象的拍摄构图,并且可基于所改变的拍摄构图来拍摄特定对象。
作为示例,如果特定对象的速度对应于第一速度,则控制器124可将拍摄构图改变为在特定对象400的背后拍摄特定对象400的全身的第一拍摄构图。在这种情况下,参照图26的(a),控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象的背后以与特定对象的移动速度对应的速度在与特定对象400的移动方向对应的方向上飞行。并且,为了连续地拍摄特定对象400,控制器124可通过控制相机130的移动来改变相机130的拍摄角度。
作为不同的示例,如果特定对象的速度对应于第二速度,则控制器124可将拍摄构图改变为在特定对象上方环绕飞行的同时拍摄特定对象400的全身的第二拍摄构图。在这种情况下,参照图26的(b),控制器124可控制飞行单元110使得无人机100维持在与特定对象400远离开预定距离(a)和预定高度(h)的位置并且在特定对象上方环绕飞行。控制器124可控制相机130的移动以使得尽管无人机100的位置改变相机130也连续地拍摄特定对象400。
关于本发明,第一拍摄构图和第二拍摄构图不限于上述内容。可具有各种拍摄构图,适合于各个速度的优化拍摄构图可被存储在存储器121中。
根据本发明的实施方式的无人机及其控制方法提供以下优点。例如,无人机可在考虑对象的运动变化和对象的状态变化自动地改变拍摄构图的同时拍摄视频。
可考虑移动终端的用户的各种情形来按照各种构图拍摄移动终端的用户,而无需单独的人来控制无人机。另外,无人机可通过基于特定对象的速度自主地改变拍摄构图来拍摄特定对象。
另外,无人机可在通过识别对象的运动变化和对象的状态变化自动地改变拍摄构图的同时拍摄视频。另外,无人机可考虑移动终端的用户的各种情形来利用各种构图拍摄移动终端的用户,而无需单独的人来控制无人机。
各种实施方式可利用存储有指令的机器可读介质来实现,所述指令由处理器执行以执行本文所呈现的各种方法。可能的机器可读介质的示例包括HDD(硬盘驱动器)、SSD(固态盘)、SDD(硅磁盘驱动器)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置、本文所呈现的其它类型存储介质及其组合。如果期望,机器可读介质可按照载波的形式实现(例如,经由互联网的传输)。处理器可包括移动终端的控制器124。
上述实施方式仅是示例性的,不应被视为限制本公开。本教导可容易地应用于其它类型的方法和设备。此说明书旨在为例示性的,而非限制权利要求书的范围。对于本领域技术人员而言,许多替代、修改和变化将是显而易见的。本文所述的示例性实施方式的特征、结构、方法以及其它特性可按照各种方式组合以获得附加和/或替代的示例性实施方式。
由于本发明的特征可在不脱离其特性的情况下按照多种形式具体实现,所以还应该理解,除非另外指明,否则上述实施方式不受以上描述的任何细节的限制,而是应该在所附权利要求书中限定的范围内广义地理解,因此,落入权利要求书的范围或其等同范围内的所有变化和修改旨在被所附权利要求书涵盖。
本申请要求于2016年5月20日提交的韩国专利申请No.10-2016-0061970的权益,其通过引用并入本文,如同在此充分阐述一样。
Claims (20)
1.一种无人机,该无人机包括:
飞行单元,该飞行单元被配置为生成用于飞行的升力;
通信单元,该通信单元被配置为从移动终端接收在所述移动终端中获得的感测数据;
相机,该相机被配置为拍摄特定对象;以及
控制器,该控制器被配置为:
基于所接收到的感测数据来识别所述特定对象的运动变化和所述特定对象的状态变化中的至少一个,
基于所识别的所述运动变化和所述状态变化中的至少一个来改变所述特定对象的拍摄构图,并且
基于改变后的拍摄构图来经由所述相机拍摄所述特定对象。
2.根据权利要求1所述的无人机,其中,所述控制器还被配置为:
基于改变后的拍摄构图来确定所述特定对象的拍摄角度和所述特定对象的拍摄位置中的至少一个,并且
控制所述飞行单元根据所确定的所述特定对象的所述拍摄角度和所述特定对象的所述拍摄位置中的至少一个来飞行。
3.根据权利要求2所述的无人机,其中,所述控制器还被配置为基于所确定的所述特定对象的所述拍摄角度和所述特定对象的所述拍摄位置中的至少一个来移动所述相机。
4.根据权利要求1所述的无人机,其中,所述控制器还被配置为基于包含在所述感测数据中的关于所述移动终端的移动方向的信息、关于所述移动终端的速度的信息、关于所述移动终端的位置的信息以及关于所述移动终端的高度的信息中的至少一个来识别所述特定对象的所述运动变化。
5.根据权利要求1所述的无人机,其中,所述控制器还被配置为基于包含在所述感测数据中的关于所述特定对象的姿态的信息、关于所述特定对象的脉搏的信息、关于所述特定对象的呼吸的信息、关于所述特定对象的体温的信息以及关于所述特定对象的排汗量的信息中的至少一个来识别所述特定对象的所述状态变化。
6.根据权利要求1所述的无人机,其中,所述控制器还被配置为基于所述特定对象的所述运动变化的程度和所述特定对象的所述状态变化的程度中的至少一个来改变所述特定对象的所述拍摄构图。
7.根据权利要求1所述的无人机,其中,所述控制器还被配置为:
识别所述特定对象的当前活动的类型,并且
基于所识别的运动变化、所识别的状态变化以及所识别的当前活动的类型中的至少一个来改变所述特定对象的所述拍摄构图。
8.根据权利要求1所述的无人机,其中,所述控制器还被配置为:
识别所述特定对象的周围地理信息,并且
基于所识别的运动变化、所识别的状态变化以及所识别的周围地理信息中的至少一个来改变所述特定对象的所述拍摄构图。
9.根据权利要求1所述的无人机,其中,所述控制器还被配置为控制所述通信单元将所拍摄的视频发送给所述移动终端。
10.一种控制无人机的方法,该方法包括以下步骤:
经由所述无人机的飞行单元生成用于飞行的升力;
经由所述无人机的通信单元从移动终端接收在所述移动终端中获得的感测数据;
经由所述无人机的相机拍摄特定对象;
经由所述无人机的控制器基于所接收到的感测数据来识别所述特定对象的运动变化和所述特定对象的状态变化中的至少一个;
经由所述控制器基于所识别的所述运动变化和所述状态变化中的至少一个来改变所述特定对象的拍摄构图;以及
经由所述相机基于改变后的拍摄构图来拍摄所述特定对象。
11.一种无人机,该无人机包括:
飞行单元,该飞行单元被配置为生成用于飞行的升力;
相机,该相机被配置为拍摄特定对象;
通信单元,该通信单元被配置为将所述相机所拍摄的视频发送给移动终端;以及
控制器,该控制器被配置为:
识别所述特定对象的速度,
基于所识别的速度来改变所述特定对象的拍摄构图,并且
基于改变后的拍摄构图来拍摄所述特定对象。
12.根据权利要求11所述的无人机,其中,所述控制器还被配置为:
识别所述无人机的当前速度和所述无人机的飞行路径,并且
利用所识别的当前速度、所识别的飞行路径以及所述相机所拍摄的视频中的至少一个来识别所述特定对象的速度。
13.根据权利要求11所述的无人机,其中,所述控制器还被配置为:
基于改变后的拍摄构图来确定所述特定对象的拍摄角度和所述特定对象的拍摄位置中的至少一个,并且
控制所述飞行单元根据所确定的所述特定对象的所述拍摄角度和所述特定对象的所述拍摄位置中的至少一个来飞行。
14.根据权利要求13所述的无人机,其中,所述控制器还被配置为基于所确定的所述特定对象的所述拍摄角度和所述特定对象的所述拍摄位置中的至少一个来移动所述相机。
15.根据权利要求11所述的无人机,其中,所述控制器还被配置为控制所述通信单元将基于改变后的拍摄构图拍摄的视频发送给所述移动终端。
16.一种控制无人机的方法,该方法包括以下步骤:
经由所述无人机的飞行单元生成用于飞行的升力;
经由所述无人机的相机拍摄特定对象;
经由所述无人机的控制器识别所述特定对象的速度;
经由所述控制器基于所识别的速度来改变所述特定对象的拍摄构图;
经由所述相机基于改变后的拍摄构图来拍摄所述特定对象;以及
经由所述无人机的通信单元将所述相机所拍摄的视频发送给移动终端。
17.根据权利要求16所述的方法,该方法还包括以下步骤:
经由所述控制器识别所述无人机的当前速度和所述无人机的飞行路径;以及
经由所述控制器利用所识别的当前速度、所识别的飞行路径以及所述相机所拍摄的视频中的至少一个来识别所述特定对象的速度。
18.根据权利要求16所述的方法,该方法还包括以下步骤:
经由所述控制器基于改变后的拍摄构图来确定所述特定对象的拍摄角度和所述特定对象的拍摄位置中的至少一个;以及
经由所述控制器控制所述飞行单元根据所确定的所述特定对象的拍摄角度和所述特定对象的拍摄位置中的至少一个来飞行。
19.根据权利要求18所述的方法,该方法还包括以下步骤:基于所确定的所述特定对象的拍摄角度和所述特定对象的拍摄位置中的至少一个来移动所述相机。
20.根据权利要求16所述的方法,该方法还包括以下步骤:控制所述通信单元将基于改变后的拍摄构图拍摄的视频发送给所述移动终端。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0061970 | 2016-05-20 | ||
KR1020160061970A KR20170130952A (ko) | 2016-05-20 | 2016-05-20 | 이동 단말기 및 그 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107402577A true CN107402577A (zh) | 2017-11-28 |
Family
ID=58094147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710073207.5A Pending CN107402577A (zh) | 2016-05-20 | 2017-02-10 | 无人机及其控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10425576B2 (zh) |
EP (1) | EP3247103A1 (zh) |
KR (1) | KR20170130952A (zh) |
CN (1) | CN107402577A (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI598143B (zh) * | 2016-06-03 | 2017-09-11 | 博泰科技有限公司 | 飛行器的跟隨遙控方法 |
US10308359B2 (en) * | 2016-06-23 | 2019-06-04 | Casio Computer Co., Ltd. | Moving device, method of controlling moving device and storage medium |
US10335045B2 (en) | 2016-06-24 | 2019-07-02 | Universita Degli Studi Di Trento | Self-adaptive matrix completion for heart rate estimation from face videos under realistic conditions |
WO2018034033A1 (ja) * | 2016-08-16 | 2018-02-22 | 本郷飛行機株式会社 | 通信制御装置 |
US10800522B2 (en) * | 2016-12-05 | 2020-10-13 | Samsung Electronics Co., Ltd. | Flight control method and electronic device for supporting the same |
CN110114125B (zh) * | 2016-12-28 | 2021-08-31 | 日本电气方案创新株式会社 | 无人机操纵系统、操纵信号发射器组和无人机操纵方法 |
US10375289B2 (en) * | 2017-03-31 | 2019-08-06 | Hangzhou Zero Zero Technology Co., Ltd. | System and method for providing autonomous photography and videography |
CN109241820B (zh) * | 2018-07-10 | 2020-11-27 | 北京二郎神科技有限公司 | 基于空间探索的无人机自主拍摄方法 |
CN114071001B (zh) * | 2020-07-31 | 2023-12-22 | 北京小米移动软件有限公司 | 控制方法、装置、电子设备及存储介质 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074557A1 (en) * | 2003-12-12 | 2006-04-06 | Advanced Ceramics Research, Inc. | Unmanned vehicle |
CN101207804A (zh) * | 2006-12-07 | 2008-06-25 | 索尼株式会社 | 图像显示系统、显示装置和显示方法 |
US20120231839A1 (en) * | 2011-03-08 | 2012-09-13 | Hye Won Seo | Mobile terminal and method of controlling the same |
CN104301614A (zh) * | 2014-10-17 | 2015-01-21 | 北京智谷睿拓技术服务有限公司 | 运动摄影过程中拍摄的方法和装置 |
CN104717357A (zh) * | 2013-10-10 | 2015-06-17 | Lg电子株式会社 | 移动终端及其控制方法 |
CN105120146A (zh) * | 2015-08-05 | 2015-12-02 | 普宙飞行器科技(深圳)有限公司 | 一种利用无人机进行运动物体自动锁定拍摄装置及拍摄方法 |
US20150350614A1 (en) * | 2012-08-31 | 2015-12-03 | Brain Corporation | Apparatus and methods for tracking using aerial video |
US20150355463A1 (en) * | 2013-01-24 | 2015-12-10 | Sony Corporation | Image display apparatus, image display method, and image display system |
US20150370250A1 (en) * | 2014-06-19 | 2015-12-24 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
CN105323372A (zh) * | 2014-08-05 | 2016-02-10 | Lg电子株式会社 | 移动终端及其控制方法 |
CN105334864A (zh) * | 2015-11-24 | 2016-02-17 | 杨珊珊 | 一种用于控制无人机的智能眼镜及控制方法 |
CN105425815A (zh) * | 2015-11-27 | 2016-03-23 | 杨珊珊 | 一种利用无人飞行器的牧场智能管理系统及方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7418320B1 (en) * | 2005-01-24 | 2008-08-26 | International Business Machines Corporation | Navigating a UAV having an on-board digital camera to capture desired geographic area |
US9294755B2 (en) * | 2010-10-20 | 2016-03-22 | Raytheon Company | Correcting frame-to-frame image changes due to motion for three dimensional (3-D) persistent observations |
FR2985581B1 (fr) * | 2012-01-05 | 2014-11-28 | Parrot | Procede de pilotage d'un drone a voilure tournante pour operer une prise de vue par une camera embarquee avec minimisation des mouvements perturbateurs |
US9230333B2 (en) * | 2012-02-22 | 2016-01-05 | Raytheon Company | Method and apparatus for image processing |
US20140008496A1 (en) * | 2012-07-05 | 2014-01-09 | Zhou Ye | Using handheld device to control flying object |
US9924109B2 (en) * | 2014-11-18 | 2018-03-20 | The Invention Science Fund Ii, Llc | Devices, methods, and systems for visual imaging arrays |
-
2016
- 2016-05-20 KR KR1020160061970A patent/KR20170130952A/ko unknown
- 2016-12-21 US US15/386,933 patent/US10425576B2/en not_active Expired - Fee Related
-
2017
- 2017-02-02 EP EP17154479.4A patent/EP3247103A1/en not_active Ceased
- 2017-02-10 CN CN201710073207.5A patent/CN107402577A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060074557A1 (en) * | 2003-12-12 | 2006-04-06 | Advanced Ceramics Research, Inc. | Unmanned vehicle |
CN101207804A (zh) * | 2006-12-07 | 2008-06-25 | 索尼株式会社 | 图像显示系统、显示装置和显示方法 |
US20120231839A1 (en) * | 2011-03-08 | 2012-09-13 | Hye Won Seo | Mobile terminal and method of controlling the same |
US20150350614A1 (en) * | 2012-08-31 | 2015-12-03 | Brain Corporation | Apparatus and methods for tracking using aerial video |
US20150355463A1 (en) * | 2013-01-24 | 2015-12-10 | Sony Corporation | Image display apparatus, image display method, and image display system |
CN104717357A (zh) * | 2013-10-10 | 2015-06-17 | Lg电子株式会社 | 移动终端及其控制方法 |
US20150370250A1 (en) * | 2014-06-19 | 2015-12-24 | Skydio, Inc. | Magic wand interface and other user interaction paradigms for a flying digital assistant |
CN105323372A (zh) * | 2014-08-05 | 2016-02-10 | Lg电子株式会社 | 移动终端及其控制方法 |
CN104301614A (zh) * | 2014-10-17 | 2015-01-21 | 北京智谷睿拓技术服务有限公司 | 运动摄影过程中拍摄的方法和装置 |
CN105120146A (zh) * | 2015-08-05 | 2015-12-02 | 普宙飞行器科技(深圳)有限公司 | 一种利用无人机进行运动物体自动锁定拍摄装置及拍摄方法 |
CN105334864A (zh) * | 2015-11-24 | 2016-02-17 | 杨珊珊 | 一种用于控制无人机的智能眼镜及控制方法 |
CN105425815A (zh) * | 2015-11-27 | 2016-03-23 | 杨珊珊 | 一种利用无人飞行器的牧场智能管理系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3247103A1 (en) | 2017-11-22 |
US20170339337A1 (en) | 2017-11-23 |
US10425576B2 (en) | 2019-09-24 |
KR20170130952A (ko) | 2017-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107402577A (zh) | 无人机及其控制方法 | |
US20220083078A1 (en) | Method for controlling aircraft, device, and aircraft | |
US11635775B2 (en) | Systems and methods for UAV interactive instructions and control | |
US20210116944A1 (en) | Systems and methods for uav path planning and control | |
CN106662793B (zh) | 使用稳定用常平架的常平架系统 | |
EP3330823B1 (en) | Flight and camera control method for an uav and electronic device for supporting the control method | |
CN108351653B (zh) | 用于uav飞行控制的系统和方法 | |
JP6329343B2 (ja) | 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法 | |
CN111527463A (zh) | 用于多目标跟踪的方法和系统 | |
JP6817422B2 (ja) | 情報処理装置、空撮経路生成方法、空撮経路生成システム、プログラム、及び記録媒体 | |
CN109416535A (zh) | 基于图像识别的飞行器导航技术 | |
CN107643758A (zh) | 拍摄移动图像的包括无人机和地面站的自主系统及方法 | |
JPWO2018088037A1 (ja) | 可動型撮像装置の制御装置、可動型撮像装置の制御方法及びプログラム | |
US20200221056A1 (en) | Systems and methods for processing and displaying image data based on attitude information | |
CN108450032B (zh) | 飞行控制方法和装置 | |
JP6596741B2 (ja) | 生成装置、生成システム、撮像システム、移動体、生成方法、及びプログラム | |
WO2022082440A1 (zh) | 确定目标跟随策略的方法、装置、系统、设备及存储介质 | |
KR20180000110A (ko) | 드론 및 그 제어방법 | |
KR102680675B1 (ko) | 비행 제어 방법 및 이를 지원하는 전자 장치 | |
WO2022094808A1 (zh) | 拍摄控制方法、装置、无人机、设备及可读存储介质 | |
JP2023021812A (ja) | 対象物撮影システム、制御装置、対象物撮影システムにおける制御方法及びコンピュータプログラム | |
JP2023083072A (ja) | 方法、システムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171128 |
|
WD01 | Invention patent application deemed withdrawn after publication |