CN108153326A - 电子设备和控制电子设备的方法 - Google Patents
电子设备和控制电子设备的方法 Download PDFInfo
- Publication number
- CN108153326A CN108153326A CN201711273021.0A CN201711273021A CN108153326A CN 108153326 A CN108153326 A CN 108153326A CN 201711273021 A CN201711273021 A CN 201711273021A CN 108153326 A CN108153326 A CN 108153326A
- Authority
- CN
- China
- Prior art keywords
- image
- electronic equipment
- photographic
- unmanned
- equipment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008859 change Effects 0.000 claims description 23
- 230000035945 sensitivity Effects 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 9
- 230000003321 amplification Effects 0.000 claims description 8
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 50
- 230000006870 function Effects 0.000 description 30
- 238000012545 processing Methods 0.000 description 25
- 230000033001 locomotion Effects 0.000 description 20
- 238000003860 storage Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 7
- 239000000203 mixture Substances 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 230000001413 cellular effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000010267 cellular communication Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- WQZGKKKJIJFFOK-GASJEMHNSA-N Glucose Natural products OC[C@H]1OC(O)[C@H](O)[C@@H](O)[C@@H]1O WQZGKKKJIJFFOK-GASJEMHNSA-N 0.000 description 1
- 239000012491 analyte Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- XEGGRYVFLWGFHI-UHFFFAOYSA-N bendiocarb Chemical compound CNC(=O)OC1=CC=CC2=C1OC(C)(C)O2 XEGGRYVFLWGFHI-UHFFFAOYSA-N 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008103 glucose Substances 0.000 description 1
- 230000013632 homeostatic process Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000001646 magnetic resonance method Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0038—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
- G05D1/0033—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72415—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0094—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0047—Navigation or guidance aids for a single aircraft
- G08G5/0069—Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
- H04N23/662—Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/36—Memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/06—Details of telephonic subscriber devices including a wireless LAN interface
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Abstract
提供了一种用于控制无人摄影设备的电子设备及其控制方法。电子设备包括用于显示一个或多个图像的显示器、存储器以及电连接到所述显示器和所述存储器的至少一个处理器。所述至少一个处理器被配置为在所述显示器上显示第一图像,推导出基于用于选择第一图像的信号所选择的第一图像中包含的摄影信息,并选择所述摄影信息中包含的与拍摄第一图像的位置有关的信息作为所述无人摄影设备的移动路径上的至少一个点。
Description
技术领域
本公开涉及用于控制无人摄影设备的电子设备及其控制方法。更具体地,本公开涉及用于基于图像来控制无人摄影设备的移动路径的电子设备及其控制方法。
背景技术
无人摄影设备可以响应于无线电控制信号拍摄照片或视频。在无人摄影设备中,无人机(或无线电飞行物体)可以是通过在无人驾驶的情况下感应无线电波来飞行的飞机或直升机形式的飞行物体。这种无人机最初是为军事目的(例如侦察或监视)而开发的,但其使用目前已扩展到产品的交付或照片或图像的捕获。
提出以上信息作为背景信息仅仅是为了辅助理解本公开。并未确定和承认上述任何内容是否可用作本公开的现有技术。
发明内容
本公开的各个方面是为了至少解决上述问题和/或缺点,并且至少提供以下描述的优点。因此,本公开的一个方面在于提供一种基于电子设备预先拍摄的图像来设置和发送无人摄影设备的移动路径、并通过无人摄影设备拍摄用户期望的位置处的图像的方法。
为了根据现有技术控制无人摄影设备(或无人机),可以使用操纵杆或智能手机触摸按钮形式的控制设备。在这种情况下,用户可以通过用于控制向上/向下俯仰或向左/向右横滚的操作杆或操作按钮将无人摄影设备移动到期望的位置。根据现有技术的通过无人摄影设备拍摄图像的方法,用户的困难在于:用户需要通过精确地控制操作设备来确定无人摄影设备的移动方向和高度,以通过无人摄影设备拍摄用户期望的构图的图像或运动图像。
根据本公开的一个方面,提供了一种用于控制无人摄影设备的电子设备。电子设备包括:用于显示一个或多个图像的显示器;存储器;以及电连接到所述显示器和所述存储器的至少一个处理器,其中所述至少一个处理器被配置为:控制所述显示器在所述显示器上显示第一图像,推导出基于用于选择第一图像的信号所选择的第一图像中包含的摄影信息,以及选择摄影信息中包含的与拍摄第一图像的位置有关的信息作为所述无人摄影设备的移动路径上的至少一个点。
根据本公开的另一方面,提供了一种用于控制对无人摄影设备进行控制的电子设备的方法。该方法包括:在显示器上显示第一图像;推导出基于用于选择第一图像的外部信号输入所选择的第一图像中包含的摄影信息;以及选择摄影信息中包含的与拍摄第一图像的位置有关的信息作为所述无人摄影设备的移动路径的至少一个点。
根据本公开的另一方面,提供了一种非暂时性计算机可读存储介质,被配置为存储包括指令的一个或多个计算机程序,所述指令在由至少一个处理器执行时使所述至少一个处理器执行用于控制对无人摄影设备进行控制的电子设备的方法。该方法包括:在显示器上显示第一图像;推导出基于用于选择第一图像的外部信号输入所选择的第一图像中包含的摄影信息;以及选择摄影信息中包含的与拍摄第一图像的位置有关的信息作为所述无人摄影设备的移动路径的至少一个点。
通过根据本公开的各种实施例的使用电子设备控制无人摄影设备的方法,用户可以基于拍摄的图像、仅通过简单和直观的控制来拍摄具有用户期望的构图的图像,而不要求用户学习操控无人摄影设备的复杂方法。
根据结合附图公开了本公开各种实施例的以下详细描述,本公开的其他方面、优点和突出特征对于本领域技术人员将变得清楚明白。
附图说明
根据结合附图给出的以下具体实施方式,将更清楚本公开的上述和其他方面、特征和优点,在附图中:
图1A、图1B和图1C示出了根据本公开实施例的在电子设备中显示图像并且通过选择所显示的图像来配置无人摄影设备的移动路径的处理;
图2示出了根据本公开实施例的从电子设备接收关于目的地点的信息的无人驾驶飞机(UAV)的自主飞行;
图3示意性地示出了根据本公开实施例的电子设备的配置;
图4示出了根据本发明实施例的无人摄影设备的配置;
图5是示出了根据本发明实施例的无人摄影设备的外观的透视图;
图6示出了根据本发明实施例的无人摄影设备的操作;
图7A和图7B示出了根据本公开实施例的控制无人摄影设备的移动的示例;
图8A、图8B和图8C示出了根据本公开实施例的使用电子设备控制无人摄影设备的移动的操作;
图9A和图9B示出了根据本公开实施例的在电子设备中显示360度图像并且通过选择所显示的图像来设置无人摄影设备的移动路径的处理;
图10A、图10B和图10C示出了根据本公开实施例的在电子设备中显示360度图像并且通过放大然后选择所显示的图像来设置无人摄影设备的移动路径的处理;
图11A、图11B和图11C示出了根据本公开实施例的在电子设备中显示运动图像并且通过选择所显示的运动图像来设置无人摄影设备的移动路径的处理;
图12A、图12B和图12C示出了根据本公开实施例的在由电子设备设置无人摄影设备的移动路径的同时选择摄影选项的处理;
图13A、图13B和图13C示出了根据本公开实施例的显示从多个图像中选择的图像以及所选图像被拍摄的位置、并由电子设备将所述图像被拍摄的位置设置为无人摄影设备的移动路径的处理;
图14是示出了根据本公开实施例的由电子设备设置无人摄影设备的飞行路径的流程图;
图15示出了根据本公开实施例的网络环境内的电子设备;
图16是示出了根据本公开实施例的电子设备的框图;以及
图17是示出了根据本公开实施例的程序模块的框图。
应注意,在整个附图中,相似的附图标记用于描述相同或相似的元件、特征和结构。
具体实施方式
提供以下参考附图的描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。以下描述包括各种具体细节以帮助理解,但这些具体细节应被视为仅仅是目的。因此,本领域普通技术人员将认识到:在不脱离本公开的范围和精神的前提下,可以对本文所述的各种实施例进行各种改变和修改。另外,为了清楚和简洁起见,可以省略对已知功能和结构的描述。
以下描述和权利要求中使用的术语和词语不限于书面含义,而是仅仅被发明人用来实现对本公开清楚一致的理解。因此,对于本领域技术人员来说应当显而易见的是,提供本公开的各种实施例的以下描述以仅用于说明的目的,而不是限制由所附权利要求及其等同物限定的本公开。
应当理解的是,除非上下文中另有清楚指示,否则单数形式“一”、“一个”和“所述”包括复数对象。因此,例如,对“组件表面”的引用包括对这样的表面中的一个或多个的引用。
根据具体情形,在硬件或软件方面,在本公开的各种实施例中使用的表述“配置为”根据情形可以与例如“适合于”、“具有...的能力”、“设计为”、“适于”、“用于”、或“能够”互换使用。备选地,在一些情况下,表述“被配置为...的设备”可以意味着该设备与其它设备或组件一起“能够...”。例如,短语“适于(或(被)配置为)执行A、B和C的处理器”可以意味着仅用于执行相应操作的专用处理器(例如,嵌入式处理器),或可以通过执行存储在存储器件中的一个或多个软件程序来执行相应操作的通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))。
图1A至图1C示出了根据本公开实施例的在电子设备中显示图像并且通过选择所显示的图像来配置无人摄影设备的移动路径的处理。
参考图1A至图1C,根据实施例的电子设备100可以包括例如以下至少一种:智能电话、平板PC、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本计算机、工作站、服务器、个人数字助手(PDA)、便携式多媒体播放器(PMP)、运动图像专家组(MPEG-1或MPEG-2)音频层3(MP3)播放器、医疗设备、相机和可穿戴设备。可穿戴设备可以包括以下至少一种:饰品类型(例如,手表、戒指、手环、脚环、项链、眼镜、隐形眼镜或头戴式设备(HMD))、衣料或服饰集成类型(例如,电子服饰)、身体附着类型(例如,皮肤贴或纹身)和生物植入电路。在下文中,假设电子设备100是智能手机。
参考图1A至图1C,电子设备100可以在显示器190上显示第一(a)图像111。电子设备100可以读取存储器中预存储的图像数据并且在显示器190上显示第一(a)图像111。此外,电子设备100可以从可以执行通信的外部电子设备(例如,服务器或另一电子设备)下载图像数据,并且在显示器190上显示第一(a)图像111。
根据一个实施例,电子设备100可以在显示器190的第一区域10中显示第一(a)图像111。电子设备100可以在显示器190的第二区域20中显示选择图标130。用户可以通过选择图标130选择第一区域10中显示的第一(a)图像111。
例如,在第一区域10中显示第一(a)图像111的状态下,电子设备100可以基于触摸选择图标130的外部信号输入来产生与第一(a)图像111相同但小于第一(a)图像111的第二(a)图像121,并将所产生的第二(a)图像121显示在第二区域20中。然而,选择第一(a)图像111的方法不限于此。
例如,电子设备100可以基于触摸在第一区域10中显示的第一(a)图像111的外部信号输入来在第二区域20中显示第二(a)图像121。此外,电子设备100可以基于触摸在第一区域10中显示的第一(a)图像111的外部信号输入并且将被触摸的第一(a)图像111拖动到第二区域20来在第二区域20中显示第二(a)图像121。
另外,电子设备100可以基于在第一区域10中显示第一(a)图像111的状态下选择分离的物理键(未示出)的外部信号输入,在第二区域20中显示第二(a)图像121。
参考图1A至图1C,电子设备100可以在第二区域20中显示第二(a)图像121。在这种状态下,电子设备100可以基于外部信号输入在第一区域10中显示第一(b)图像112。例如,电子设备100可以基于在左右方向或上下方向上触摸和拖动第一(a)图像111的外部信号输入来显示第一(b)图像112而非第一(a)图像111。然而,电子设备100显示第一(b)图像112的方法不限于此。例如,电子设备100可以基于在第一区域10中显示第一(a)图像111的状态下输入的分离的物理键按钮,在第一区域10中显示第一(b)图像112。
根据一个实施例,电子设备100可以在第二(a)图像121附近显示选择图标130。用户可以通过选择图标130选择第一区域10中显示的第一(b)图像112。在第一区域10中显示第一(b)图像112的状态下,电子设备100可以基于触摸选择图标130的外部信号输入来产生小于第一(b)图像112的第二(b)图像122,并将所产生的第二(b)图像122显示在第二区域20中。
参考图1A至图1C,电子设备100可以在第二区域20中显示第二(a)图像121和第二(b)图像122。在这种状态下,电子设备100可以基于外部信号输入在第一区域10中显示第一(c)图像113。例如,电子设备100可以基于在左右方向或上下方向上触摸和拖动第一(b)图像112的外部信号输入来显示第一(c)图像113而非第一(b)图像112。
根据一个实施例,电子设备100可以在第二(a)图像121和第二(b)图像122附近显示选择图标130。用户可以通过选择图标130选择第一区域10中显示的第一(c)图像113。在第一区域10中显示第一(c)图像113的状态下,电子设备100可以基于触摸选择图标130的外部信号输入来产生与第一(c)图像113相同但小于第一(c)图像113的图像(未示出),并将所产生的图像显示在第二区域20中。
根据实施例的电子设备100可以结束预选择的第二(a)图像121和第二(b)图像122的显示。例如,当第二(a)图像121或第二(b)图像122被长时间触摸时,电子设备100可以显示用于识别显示结束的用户界面,并基于用户的选择结束所选图像的显示。
在下文中,假设第一(a)图像111、第一(b)图像112和第一(c)图像113包括在第一图像中,并且第二(a)图像121和第二(b)图像122包括在第二图像中。电子设备100可以通过图1A至图1C示出的处理在第二区域20中显示至少一个图像。电子设备100可以推导出与在第二区域20中显示的第二图像相关的摄影信息。
摄影信息可以包括摄影设置值,例如光圈值、曝光时间和灵敏度。此外,摄影信息可以包括例如在拍摄第一图像的摄影设备拍摄第一图像的时间点由全球定位系统(GPS)使用的纬度、经度和高度信息。另外,摄影信息可以包括例如在拍摄第一图像的摄影设备拍摄第一图像的时间点基于地磁传感器或陀螺仪传感器获取的摄影设备的纬度、方位、包括在摄影设备中的相机的方向以及摄影设备的斜度。
根据一个实施例,摄影信息可以包括在图像文件中。例如,在联合图像编码专家组(JPEG)格式的图像文件的情况下,摄影信息可以作为元数据存储在报头中。
电子设备100可以基于用于选择在第一区域10中显示的第一图像的信号来产生第二图像,同时或顺序地收集第一图像的摄影信息,并且将收集的摄影信息存储在存储器中。
电子设备100可以基于收集的摄影信息,收集拍摄第一图像的摄影设备的位置信息。根据一个实施例,电子设备100可以将收集的位置信息插入到无人摄影设备的移动路径的至少一个点中。此外,电子设备100可以基于收集的摄影信息,收集用于拍摄第一图像的摄影设置值。电子设备100可向无人摄影设备发送所收集的摄影设置值。无人摄影设备可以基于发送的摄影设置值,以与目标点(例如,拍摄第一图像的位置)处的第一图像相同的构图、曝光值、灵敏度和视角来拍摄图像。
根据一个实施例,电子设备100可以基于在第二区域20中显示的第二图像的显示结束,从无人摄影设备的移动路径中排除与第二图像相关的第一图像的位置信息。
无人摄影设备可以是例如配备有相机的无人移动设备。无人摄影设备可以是无人驾驶飞机、无人驾驶汽车或机器人。在下文中,假设自动摄影设备是配备有相机的无人飞行设备。
术语“无人驾驶飞机”或“无人飞机”(UAV)可以指在没有驾驶员的情况下根据地面控制飞行或根据预先输入的程序识别周围环境(例如障碍物或轨迹)或自己自主飞行的飞行物体。
根据各种实施例,当拍摄第一图像的摄影设备是UAV时,摄影信息可以包括更大量的信息。例如,摄影信息可以包括在拍摄第一图像的时间点处的UAV的位置信息(例如,横滚、俯仰和偏航信息)。横滚、俯仰和偏航信息可以分别包括UAV的X、Y和Z轴上的移动信息、倾斜信息和旋转信息。此外,摄影信息可以包括安装到UAV的万向节(gimba1)的位置信息(例如,横滚、俯仰和偏航信息)。
根据一个实施例,万向节可以包括相机或者可以与相机集成。无论UAV如何移动,万向节可以通过使相机保持恒定的倾斜度来进行稳定的图像摄影。
电子设备100可以向UAV发送包括通过上述处理推导出的位置信息在内的移动路径。例如,电子设备100可以通过有线或无线通信向UAV发送移动路径。
无线通信可以包括例如使用以下各项中的至少一个的蜂窝通信:长期演进(LTE)、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)等。此外,无线通信可以包括短距离通信方法,例如,蓝牙(BT)或近场通信(NFC)。有线通信可以包括例如通用串行总线(USB)和高清多媒体接口(HDMI)中的至少一个。
无人机可以移动到上述点。例如,在通过自主飞行移动到上述点后,无人机可以返回到起点。自主飞行可以指例如UAV基于从电子设备发送的目的地信息进行飞行的操作。
图2示出了根据本公开实施例的从电子设备接收关于目标点的信息的UAV的自主飞行。
参考图2,根据实施例的无人摄影设备200可以在无需从用户接收直接控制的情况下,自己执行摄影操作。例如,无人摄影设备可以是UAV 200。当从电子设备100接收到包含目的地点和摄影设置值在内的飞行数据时,无人摄影设备200可以基于所接收的飞行数据产生移动控制信号,并基于移动控制信号自主地飞行。例如,无人摄影设备200可以自主地飞行以拍摄具有与第一(a)图像111相同的摄影设置值的图像。
无人摄影设备200可以基于接收到的飞行数据移动到可以拍摄具有目的地构图的图像的适当构图位置,然后自动拍摄图像。从电子设备100发送的摄影设置值可以包含光圈值、曝光时间、灵敏度、视角信息、摄影设备的定向以及摄影设备的倾斜信息。
当从电子设备100接收到摄影信息时,根据实施例的无人摄影设备200可以执行摄影模式。摄影模式可以由电子设备100设置,或者可以由无人摄影设备200设置。例如,当接收到摄影信息时,无人摄影设备200可以基于通过相机模块获取的图像的构图信息来设置摄影模式并且在自主飞行的同时执行摄影操作。
当设置摄影模式时,在操作210中,为了拍摄与第一(a)图像111相同的图像,无人摄影设备200可以起飞(例如竖直上升)。当无人摄影设备200起飞并达到预设高度时,无人摄影设备200可以在操作220中悬停的同时,识别当前的位置信息(例如,纬度、经度、高度)和方位信息(例如X、Y、Z轴上的移动信息、倾斜信息和旋转信息)。
根据实施例的无人摄影设备200可以基于包含从电子设备100发送的目标点和摄影设置值在内的飞行数据,识别对象,然后自主飞行到可以拍摄目标图像的位置。例如,在操作221至225中,无人摄影设备200可以在考虑视角的情况下调整摄影构图的同时改变无人摄影设备200的高度和距离。
当无人摄影设备200在自主飞行的同时到达与目标点匹配的位置时,在操作230中,无人摄影设备200可以拍摄具有与第一(a)图像111相同的摄影设置值的图像。
例如,当无人摄影设备200到达目标点时,无人摄影设备200可以基于飞行数据中包含的摄影信息之中的无人摄影设备在X、Y和Z轴上的移动信息、倾斜信息以及旋转信息来调整无人摄影设备200的摄影方向。
当调整了摄影方向时,无人摄影设备200可以基于飞行数据中包含的摄影信息的摄影设置值来拍摄对象。例如,无人摄影设备200可以将相机模块配置为具有与第一(a)图像111相同的光圈值、曝光时间、灵敏度和视角,并拍摄对象。
如上所述,根据实施例的无人摄影设备200可以基于预摄图像的摄影设置值以及与拍摄预摄图像的摄影设备相同的位置、方向和倾斜信息来拍摄对象。因此,用户可以容易地拍摄目标图像,而无需任何控制来微调无人摄影设备200和改变摄影设置值。
在执行了自动摄影之后,无人摄影设备200可以向电子设备100发送拍摄的图像。此外,在摄影结束之后,无人摄影设备200可以返回到无人摄影设备200开始自主飞行的位置。然而,本公开并不限于此。例如,在摄影结束之后,无人摄影设备200可以等待从电子设备100接收信号,而同时悬停在相应位置。
图3示意性地示出了根据本公开实施例的电子设备的配置。
参考图3,电子设备100可以包括显示器310、处理器320和存储器330。电子设备100可以被实现为具有比图3所示更多或更少的元件。例如,电子设备100可以包括输入模块(例如,触摸面板、物理键、接近传感器或者生物传感器)或者电源单元。
显示器310可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器。显示器310可以包括图1A至图1C的显示器190。显示器310可以包括触摸屏,并可以接收例如使用电子笔或用户的身体部位进行的触摸、手势、接近或悬停输入。
根据实施例的显示器310可以在处理器320的控制下将存储器330中存储的图像显示在显示器310的显示区域的第一区域中。此外,在处理器320的控制下,显示器310可以在与第一区域不同的第二区域中显示与第一区域中的图像相同但小于该图像的图像。
处理器320可以控制连接到该处理器的多个硬件或软件元件,并且可以通过驱动例如操作系统(OS)或应用程序来执行各种数据处理和计算。
根据实施例的处理器320可以将存储器330中预存储的图像显示在显示器310上。然而,本公开并不限于此。例如,处理器320可以通过通信单元从外部电子设备或服务器接收图像,并在显示器310上显示所接收的图像。
处理器320可以推导出基于用于选择在显示器310上显示的图像的外部信号而选择的图像中包含的摄影数据。此外,处理器320可以基于用于选择在显示器310上显示的图像的外部信号来产生与在显示器310的第一区域中显示的图像相同但小于该图像的图像,并且将所产生的图像显示在显示器310的与第一区域不同的第二区域中。
处理器320可以选择所推导出的摄影数据中包含的图像的摄影位置信息作为无人摄影设备的移动路径的至少一个点。处理器320可以通过通信单元向无人摄影设备发送与确定的移动路径相关的数据。
存储器330可以存储由电子设备100拍摄的图像。此外,存储器330可以存储电子设备100从外部电子设备或服务器接收的图像。
根据实施例的存储器330可以存储处理器320从图像中推导出的摄影数据并存储该摄影数据中包含的图像位置信息。
根据实施例的用于控制无人摄影设备的电子设备可以包括:显示器,显示图像;存储器;以及处理器,电连接到显示器和存储器,其中所述处理器在显示器上显示第一图像,推导出基于用于选择第一图像的信号输入所选择的第一图像中包含的摄影信息,并且选择与拍摄第一图像的位置有关的信息作为无人摄影设备的移动路径的至少一个点。
在根据实施例的用于控制无人摄影设备的电子设备中,摄影信息可以包含拍摄第一图像的摄影设备在拍摄第一图像时设置的光圈值、曝光时间、灵敏度、视角、变焦倍率信息和方位信息。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以向无人摄影设备发送摄影信息和摄影信息中包含的位置信息。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以基于外部信号输入来放大第一图像的一个点,在显示器上显示包括被放大的点在内的第一图像,并且基于放大倍率改变无人摄影设备的移动路径的一个点。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以基于外部信号输入来缩小第一图像的一个点,在显示器上显示包括被缩小的点在内的第一图像,并且基于缩小倍率改变无人摄影设备的移动路径的一个点。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以基于用于选择第一图像的外部信号输入在显示器上显示与第一图像相同但小于第一图像的第二图像。
在根据实施例的用于控制无人摄影设备的电子设备中,当基于外部信号输入而结束第二图像的显示时,处理器可以从无人摄影设备的移动路径移除与第二图像相关联的第一图像的位置信息。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以基于用于选择第一图像的外部信号输入来在显示器上显示示出了第一图像的位置信息的地图。
在根据实施例的用于控制无人摄影设备的电子设备中,处理器可以基于外部信号输入来显示用于选择在拍摄第一图像的位置处拍摄图像的选项的用户界面。
在根据实施例的用于控制无人摄影设备的电子设备中,当第一图像是运动图像时,处理器可以推导出基于用于选择第一图像的外部信号输入而在显示器上显示的帧中包含的摄影信息。
图4示出了根据本发明实施例的无人摄影设备的配置。
参考图4,根据实施例的无人摄影设备200可以包括处理器400、移动控制模块410、至少一个移动模块420和/或440、传感器模块430、存储器模块470、通信模块450和相机模块460。
处理器400可以根据无人摄影设备200的至少一个其他元件的控制和/或应用程序的执行来执行计算或数据处理。处理器400可以基于包含从电子设备100发送的目标点和摄影设置值在内的飞行数据来确定摄影位置。当设置摄影位置时,处理器400可以自动执行摄影应用,通过控制摄影应用中的移动控制模块410自动移动无人摄影设备200(例如,在UAV的情况下,使UAV自主飞行),当无人摄影设备200移动到具有设置构图的位置时自动拍摄对象,并且当摄影结束时控制无人摄影设备200返回到原始位置。处理器400可以向电子设备100发送包含所拍摄的图像和关于图像摄影的信息在内的摄影信息。
移动控制模块410可以基于无人摄影设备200的位置和方位信息来控制无人摄影设备200的移动。移动控制模块410可以控制无人摄影设备200的飞行和方位。移动控制模块410可以通过通信模块450的GPS模块和传感器模块430获取无人摄影设备的方位信息和/或位置信息。
当无人摄影设备200是UAV时,移动控制模块410可以基于所获取的位置和方位信息来控制无人摄影设备200的横滚、俯仰、偏航和油门。移动控制模块410可以控制悬停操作并且基于提供给处理器400的摄影位置信息使无人摄影设备200自主地飞向目标点。
移动模块420可以在移动控制模块410的控制下移动无人摄影设备。当无人摄影设备200是UAV时,移动模块420可以包括与多个螺旋桨相对应的发动机。
传感器模块430可以测量物理量或检测无人摄影设备200的操作状态,并将测量的或检测的信息转换为电信号。传感器模块430可以包括加速度传感器、陀螺仪传感器、气压计、地磁传感器(或罗盘传感器)、超声波传感器、用于使用图像感测移动的光流、温度-湿度传感器、照度传感器、紫外线(UV)传感器和手势传感器中的一些或全部。
根据实施例的传感器模块430可以包括用于控制无人摄影设备200的方位的传感器。用于计算无人摄影设备200的位置的传感器可以是陀螺仪传感器和加速度传感器。为了计算陀螺仪传感器的方位角并防止漂移,可以组合地磁传感器的输出。
存储器模块470可以包括易失性和/或非易失性存储器。存储器模块470可以存储与无人摄影设备的至少一个其他元件相关联的命令或数据。存储器模块470可以存储软件和/或程序。程序可以包括内核、中间件、应用程序编程接口(API)和/或应用程序(或应用)。内核、中间件和API中的至少一些可以被称作操作系统(OS)。
存储器模块470可以存储包含从电子设备100发送的目标点和摄影设置值在内的飞行数据。飞行数据可以包含要被自动拍摄的目标图像信息和/或相机控制信息。
根据一个实施例,存储器模块470可以存储要在处理器400上执行的指令。这些指令可以使得处理器400基于至少一些数据(例如摄影信息)来改变相机模块460的定向。
通信单元450可以包括无线通信模块和有线通信模块中的至少一个。无线通信模块可以包括蜂窝通信模块和短距离通信模块。通信模块450可以包括GPS模块。
蜂窝通信模块可以使用长期演进(LTE)、LTE-高级(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)中的至少一种。
短距离通信模块可以包括例如Wi-Fi、BT、近场通信(NFC)和全球导航卫星系统(GNSS或全球定位系统(GPS))中的至少一个。根据使用区域、带宽等,GNSS可以包括例如以下至少一项:GPS、全球导航卫星系统(GLONASS)、北斗导航卫星系统(以下称为“北斗”)和欧洲基于全球卫星的导航系统(伽利略)。在下文中,用于描述通信模块450的术语“GNSS”可以与“GPS”互换使用。
有线通信模块可以包括例如通用串行总线(USB)、高清多媒体接口(HDMI)和推荐标准232(RS-232)中的至少一个。
根据实施例的GPS模块可以在无人摄影设备200的移动期间输出诸如UAV的纬度、经度、高度、速度和航向信息之类的位置信息(经度、纬度、高度、GPS速度和GPS航向)。可以通过基于通过GPS模块对精确时间和距离的测量来计算位置,从而产生位置信息。GPS模块可以获得精确的时间、三维速度信息以及经度、纬度和高度。
通信模块450可以发送用于识别无人摄影设备200的实时移动状态的信息。根据本公开的各种实施例的通信模块450可以接收从电子设备100发送的摄影信息。根据一个实施例,通信模块450可以向电子设备100发送由无人摄影设备拍摄的图像和摄影信息。
相机模块460可以在摄影模式下拍摄对象。相机模块460可以包括镜头、图像传感器、图像处理器(图像信号处理器(ISP))和相机控制器。图像处理器可以包括在应用处理器中。
镜头可以使用光的线性和反射特性以及对对象进行放大/缩小的功能来执行对焦功能。
图像传感器可以具有互补金属氧化物半导体(CMOS)或电荷耦合器件(CCD)(CMOS图像传感器(CIS)或(CCD))的结构,并且这种类型的图像传感器可以包括像素阵列和用于控制(行控制)和读取(读出)像素阵列的部件。像素阵列可以包括微透镜阵列、滤色器阵列和光检测设备阵列。例如,滤色器阵列的滤色器可以布置为拜耳(Bayer)图案。可以以全局快门方式或卷帘快门方式来控制图像传感器。在图像传感器的像素阵列中读出的模拟像素信号可以通过模数转换器(ADC)转换为数字数据。经转换的数字数据可以通过图像传感器的内部数字块、通过诸如移动工业处理器接口(MIPI)之类的外部接口输出到外部(例如,图像处理器)。
图像处理器可以包括图像预处理器和图像后处理器。图像预处理器可以对每个子帧图像执行诸如自动白平衡(AWB)、自动曝光(AE)、自动聚焦(AF)、提取和处理、镜头阴影校正、坏点校正和拐点校正之类的操作。图像后处理器可以包括颜色内插器、图像处理链(IPC)和颜色转换器。颜色内插器可以对经图像预处理的子帧图像执行颜色内插操作。IPC可以对经颜色内插的图像执行去噪和颜色校正。颜色转换器可以将红色、蓝色、绿色(RGB)数据转换成YUV数据。
图像处理器可以包括用于对经图像处理的图像进行编码的编码器和用于对编码图像进行解码的解码器。编码器和解码器可以包括用于对静止图像进行编码和解码的静止图像编解码器和/或对运动图像进行编码和解码的运动图像编解码器。
图像处理器可以将经图像处理的高清图像缩放(调整大小)为合适的分辨率(例如,显示器的显示分辨率),并将缩放的图像输出到显示器上。此外,图像处理器可以使用图像处理结果来控制包括图像传感器和/或图像处理器的相机模块460(例如AF、AE、AWB、IPC、脸部检测和目标跟踪)。
相机控制器可以包括用于控制镜头的镜头控制器和用于控制相机方向(上、下、左和/或右方向)的方向控制器。镜头控制器可以通过控制镜头的操作来执行诸如变焦、聚焦和缩紧之类的操作。方向控制器可以控制相机的上下方向和左右方向的角度,使得相机面向对象的方向。
相机模块460可以是万向相机。万向相机可以包括万向节和相机。万向节可以执行保持无人摄影设备处于竖立状态的功能,而不管无人摄影设备是否晃动。当在摄影模式下,无人摄影设备在处理器400的控制下到达目标位置时,相机可以执行自动摄影操作。相机可以基于在摄影模式下从处理器400输出的相机控制信息来控制相机的角度,使得相机的镜头面向对象。
处理器400可以通过通信模块450与包括显示器的电子设备100建立无线连接。处理器400可以通过通信模块450从电子设备100接收包含目标点和摄影设置值在内的飞行数据,并设置飞行路径。此外,处理器400可以通过通信模块450向电子设备100发送通过相机模块460拍摄的图像。
图5是示出了根据本发明实施例的无人摄影设备的外观的透视图。
参考图5,无人摄影设备200可以例如是具有四个螺旋桨的四旋翼飞行器。无人摄影设备200可以包括主体510、万向相机520以及螺旋桨531、532、533和534。如图5所示,无人摄影设备200可以具有安装在主体510的下部的相机,并在飞行期间通过相机520拍摄图像。然而,本公开不限于以上结构。例如,相机520可以在主体510的上部或侧部与主体510一体化。
图6示出了根据本发明实施例的无人摄影设备200的操作。
参考图6,在无人摄影设备200中,彼此面对的螺旋桨具有相同的旋转方向,并且彼此相邻的螺旋桨具有相反的旋转方向。在四旋翼飞行器的情况下,例如,四个螺旋桨531至534中的两个螺旋桨531和533可以按顺时针方向旋转,如附图标记610和630所示,并且剩余的两个螺旋桨532和534可以按逆时针方向旋转,如附图标记620和640所示。
螺旋桨之所以有不同的旋转方向,是由于动量守恒。如果四个螺旋桨在相同的方向上旋转,则由于动量守恒,无人摄影设备200会在一个方向上连续地旋转。通过调整无人摄影设备200的螺旋桨的转速来转向(即,改变方向),是使用动量守恒的另一个示例。
根据一个实施例,控制无人摄影设备200的位置和飞行的操作可以由移动控制模块(例如,图4的移动控制模块410)执行。移动控制模块410可以通过分析由传感器模块(例如,图4的传感器模块430)收集的信息来识别无人摄影设备200的当前状态。
移动控制模块410可以使用无人摄影设备200的传感器中的一些或全部,例如用于测量动量的陀螺仪传感器、用于测量无人摄影设备200的加速度动量的加速度传感器、地磁传感器、用于测量高度的气压计、以及用于输出无人摄影设备200的三维位置信息的GPS模块。
移动控制模块410可以基于从传感器模块430和GPS模块输出的测量信息来控制螺旋桨531至534的旋转,使得无人驾驶摄影设备200在飞行期间自我平衡。
移动控制模块410可以通过分析传感器模块和GPS模块的测量结果来稳定地控制无人摄影设备200的飞行。可以通过增加位于与期望方向相反的方向上的螺旋桨的转速来执行无人摄影设备200的向前、向后、向左和向右移动。可以通过降低在期望移动到的方向上的螺旋桨的转速产生相同的效果。
当无人摄影设备200旋转时,移动控制模块410可以调整两个相互面对的螺旋桨(即以相同方向旋转的两个螺旋桨)的转速。当沿一个方向旋转的螺旋桨的动量占主导地位时,无人摄影设备200可能失去平衡并因此在相反方向上旋转。例如,当移动控制模块410增加沿顺时针方向旋转的螺旋桨531和533的转速时,无人摄影设备200可以将其方向改变为逆时针方向。此外,当移动控制模块410降低所有螺旋桨的转速时,无人摄影设备200可以下降。当移动控制模块410增加所有螺旋桨的转速时,无人摄影设备200可以上升。
无人摄影设备200可以在多维(例如,三维)空间中沿上、下、左、右方向改变和移动其方向。例如,在四旋翼飞行器的情况下,通过控制螺旋桨531至534的旋转,无人摄影设备200可以上升或下降,将其方向改变为向左或向右,以及沿前、后、左、右方向移动。无人摄影设备200可以使用下面的表1中示出的四个命令来控制其移动(例如,相对移动)。
表1
上升或下降 | 油门 |
将方向改为向左或向右 | 偏航 |
向前或向后移动 | 俯仰 |
向左或向右移动 | 横滚 |
图7A和图7B示出了根据本公开实施例的控制无人摄影设备的移动的示例。
四旋翼飞行器可以通过四个螺旋桨531至534的旋转强度的组合来控制飞行方向和移动。
参考图7A,当四个螺旋桨531至534的每分钟转数(RPM)同时增加时,无人摄影设备200可以上升,并且当RPM同时减小时,无人摄影设备200可以下降。以相同的方式,无人摄影设备200可以通过增加螺旋桨531和532的RPM而向前移动,通过增加螺旋桨533和534的RPM而向后移动,通过增加螺旋桨531和534的RPM而向左移动,并且通过增加螺旋桨532和533的RPM而向右移动。
参考图7B,通过使对角布置的螺旋桨531和533或532和534比其他对角布置的螺旋桨更有力地旋转,无人摄影设备200的方向可以改变为向左或向右方向。
图8A至图8C示出了根据本公开实施例的通过电子设备控制无人摄影设备的移动的操作。
参考图8A至图8C,无人摄影设备200可以包括用于控制飞行位置和飞行的移动控制模块410和移动模块420、以及用于控制无人摄影设备200的应用的处理器400。移动控制模块410可以通过无人摄影设备200的平台的中枢连接到安装在无人摄影设备200中的各种类型的硬件和传感器,以便自主地飞行。
处理器400可以包括作为应用核心的操作系统(OS),并且通过提供API来提供执行硬件和软件的应用。移动控制模块410可以通过处理器400获取信息以便将无人摄影设备200移动到预设位置,并且基于所获取的信息控制无人摄影设备200移动到对应的目的地。
此外,无人摄影设备200可以由电子设备100遥控。
参考图8A至图8C,电子设备100可以在显示器310上显示用于控制无人摄影设备200的移动的第一操控按钮810和第二操控按钮820。
第一操控按钮810和第二操控按钮820可以通过用户的触摸而被激活,并且电子设备100可以向无人摄影设备200发送根据触摸和拖动方向来控制无人摄影设备200的移动的命令。无人摄影设备200的处理器400可以向移动控制模块410发送从电子设备100发送的命令,并且移动控制模块410可以通过控制移动模块420来控制无人摄影设备200的移动。电子设备100的第一操控按钮810可以产生油门和偏航命令,并且第二操控按钮810可以产生俯仰和横滚命令。
图8A示出了控制无人摄影设备200的俯仰和横滚移动的操作。
术语“俯仰”可以指无人摄影设备200的前后移动,术语“横滚”可以指无人摄影设备200的左右移动。例如,当用户沿方向841拖动第二操控按钮820时,电子设备100可以分析拖动方向和拖动距离,并向无人摄影设备200发送与向前移动和移动速度有关的信息。然后,无人摄影设备200的移动控制模块410可以执行控制,使得螺旋桨531和532以大于螺旋桨533和534的每分钟转数(RPM)旋转。无人摄影设备200可以在方向851上向前移动。
当用户沿方向843触摸并拖动第二操控按钮820时,通过使螺旋桨533和534比螺旋桨531和532更有力地旋转,无人摄影设备200可以沿方向853向后移动。
以相同的方式,当用户沿方向845触摸并拖动第二操控按钮820时,通过使螺旋桨531和534比螺旋桨532和533更有力地旋转,无人摄影设备200可以沿方向855向左移动。
当用户沿方向847触摸并拖动第二操控按钮820时,通过使螺旋桨532和533比螺旋桨531和534更有力地旋转,无人摄影设备200可以沿方向857向右移动。
图8B示出了控制无人摄影设备200的上升/下降的操作。
例如,当用户沿方向861拖动第一操控按钮810时,电子设备100可以分析拖动方向和拖动距离,并向无人摄影设备200发送与上升移动和移动速度有关的信息。然后,螺旋桨531至534的RPM基于无人摄影设备200的速度信息同时增加,因此无人摄影设备200可以沿方向865向上移动。
当用户沿方向863触摸并拖动第一操控按钮810时,无人摄影设备200可以通过降低螺旋桨531至534的RPM而沿方向867向下移动。
图8C图示了控制偏航移动的操作。
术语“偏航”可以表示无人摄影设备200的方向的改变。如图8C所示,无人摄影设备200可以不同地控制螺旋桨531、533以及螺旋桨532、534的旋转方向。例如,当用户沿方向871拖动第一操控按钮810时,无人摄影设备200可以增加沿顺时针方向旋转的螺旋桨531和533的RPM,使得螺旋桨531和533比沿逆时针方向旋转的螺旋桨532和534更有力地旋转,从而将无人摄影设备200的方向改变为向右方向。当用户沿方向873拖动第一操控按钮810时,无人摄影设备200可以增加沿顺时针方向旋转的螺旋桨532和534的RPM,使得螺旋桨532和534比沿逆时针方向旋转的螺旋桨531和533更有力地旋转,从而将无人摄影设备200的方向改变为向左方向。
可以通过调整电子设备100的第一操控按钮810或第二操控按钮820来控制无人摄影设备200的飞行操作。根据一个实施例,无人摄影设备200可以自主地飞行。此外,无人摄影设备200可以执行自主摄影操作。
在自主摄影操作中,如上所述,无人摄影设备200可以基于包含从电子设备100发送的目标点和摄影设置值在内的飞行数据而自主地飞行。为了移动到摄影位置,如结合图8A至图8C的描述,无人摄影设备200可以通过控制油门、俯仰、横滚和/或偏航操作而自主飞行到与目标点相对应的摄影位置。
图9A和图9B示出了根据本公开实施例的在电子设备中显示360度图像并且通过选择所显示的图像来设置无人摄影设备的移动路径的处理。
参考图9A和图9B,电子设备100可以在显示器190上显示第一图像910。根据一个实施例,第一图像910可以是具有360度视角的图像。电子设备100可以读取存储器中预存储的图像数据并且在显示器190上显示第一图像910。
根据一个实施例,电子设备100可以在显示器190的第一区域10中显示第一图像910。电子设备100可以在显示器190的第二区域20中显示选择图标930。用户可以通过选择图标930选择在第一区域10中显示的第一图像910。在第一区域10中显示第一图像910的状态下,电子设备100可以基于触摸选择图标930的外部信号输入来产生小于第一图像910的第二(a)图像921,并将所产生的第二(a)图像921显示在第二区域20中。
参考图9A和图9B,电子设备100可以在第二区域20中显示第二(a)图像921。在这种状态下,电子设备100可以基于外部信号输入在第一区域10中显示再现区域改变的第一图像910。例如,电子设备100可以基于向左、向右、向上或向下触摸和拖动第一图像910的外部信号输入来改变和显示第一图像910的再现区域。然而,电子设备100改变并显示第一图像910的再现区域的方法不限于此。例如,在第一区域10中显示第一图像910的状态下,电子设备100可基于单独的物理键按钮输入来改变第一图像910的再现区域并将其显示在第一区域10中。
根据一个实施例,电子设备100可以在第二(a)图像921附近显示选择图标930。用户可以通过选择图标930选择在第一区域10中显示的再现区域被改变的第一图像910。在第一区域10中显示再现区域被改变的第一图像910的状态下,电子设备100可以基于触摸选择图标930的外部信号输入来产生比具有改变的再现区域的第一图像910小的第二(b)图像(未示出),并在第二区域20中显示所产生的第二(b)图像。
根据一个实施例,电子设备100可以推导出与显示在第二区域20中的第二(a)图像921相关的摄影信息。由于已经在图1A至图1C中详细描述了摄影信息,这里将省略其描述。
当第一图像910是360度图像时,第二(a)图像921和第二(b)图像可以是在不同摄影方向上的相同位置拍摄的图像。相应地,当无人摄影设备200从电子设备100接收到基于第二(a)图像921和第二(b)图像的包含目标点和摄影设置值在内的飞行数据时,无人摄影设备200可以在一个位置旋转的同时拍摄图像。
在自主摄影之后,无人摄影设备200可以向电子设备100发送拍摄的图像。此外,在摄影结束之后,无人摄影设备200可以返回到自主飞行开始的位置。
图10A至图10C示出了根据本公开实施例的在电子设备中显示360度图像并且通过放大然后选择所显示的图像来设置无人摄影设备的移动路径的处理。
参考图10A至图10C,电子设备100可以在显示器190上显示第一图像1010。根据一个实施例,第一图像可以是具有360度视角的图像。
根据一个实施例,电子设备100可以在显示器190的第一区域10中显示第一图像1010。电子设备100可以在显示器190的第二区域20中显示选择图标1030。用户可以通过选择图标1030选择显示在第一区域10中的第一图像1010。在第一区域10中显示第一图像1010的状态下,电子设备100可以基于触摸选择图标1030的外部信号输入来产生小于第一图像1010的第二(a)图像1021,并将所产生的第二(a)图像1021显示在第二区域20中。
参考图10A至图10C,电子设备100可以在第二区域20中显示第二(a)图像1021。在这种状态下,电子设备100可以基于外部信号输入在第一区域10中显示具有改变的再现区域的第一图像1010。例如,电子设备100可以基于向左、向右、向上或向下触摸和拖动第一图像1010的外部信号输入来改变和显示第一图像910的再现区域。
根据一个实施例,在第一区域10中显示具有改变的再现区域的第一图像1010的状态下,电子设备100可以基于触摸选择图标1030的外部信号输入来产生小于具有改变的再现区域的第一图像1010的第二(b)图像1022,并将所产生的第二(b)图像1022显示在第二区域20中。
参考图10A至图10C,电子设备100可以在第二区域20中显示第二(a)图像1021和第二(b)图像1022。在这种状态下,电子设备100可以基于外部信号输入在第一区域10中显示放大的第一图像1010。例如,电子设备100可以基于在相反的方向上触摸并拖动第一图像1010的一个点的外部信号输入来放大并显示第一图像1010的该一个点。
在第一区域10中显示具有放大的一个点的第一图像1010的状态下,电子设备100可以基于触摸选择图标1030的外部信号输入来产生小于具有放大的一个点的第一图像1010的第二(c)图像1023,并将所产生的第二(c)图像1023显示在第二区域20中。
当第二(c)图像1023是从第一图像1010的一个点放大的图像时,电子设备100可以基于放大倍率确定无人摄影设备200的飞行目标点。例如,当触摸和拖动的长度较短时,电子设备100可以设置从第一图像1010被拍摄为目标点的点处朝向被放大的一个点的短距离。当触摸和拖动的长度较长时,电子设备100可以设置从第一图像1010被拍摄为目标点的点处朝向被放大的一个点的长距离。基于触摸和拖动的长度的无人摄影设备200的移动距离可以从预设的表或方程推导出。
根据一个实施例,在从图像的一个位置放大的图像的情况下,电子设备100可以基于放大倍率来确定无人摄影设备200中安装的相机520的变焦倍率。例如,当触摸和拖动的长度较短时,电子设备100可以将相机520的变焦倍率设置为低。当触摸和拖动的长度较长时,电子设备100可以将相机520的变焦倍率设置为高。基于触摸和拖动的长度的相机520的变焦倍率可以从预设的表或方程推导出。
根据各种实施例,当第二(c)图像1023是从第一图像1010的一个点缩小的图像时,电子设备100可以基于缩小倍率确定无人摄影设备200的飞行目标点。例如,当触摸和拖动的长度较短时,电子设备100可以设置从第一图像1010被拍摄为目标点的点处朝向与被缩小的一个点相反方向的短距离。当触摸和拖动的长度较长时,电子设备100可以设置从拍摄第一图像的点处朝向与被缩小的一个点相反方向的长距离。基于触摸和拖动的长度的无人摄影设备200的移动距离可以从预设的表或方程推导出。
图11A至图11C示出了根据本公开实施例的在电子设备中显示运动图像并且通过选择所显示的运动图像来设置无人摄影设备的移动路径的处理。
参考图11A至图11C,电子设备100可以在显示器190上再现运动图像1110。
根据一个实施例,电子设备100可以在显示器190的第一区域10中再现运动图像1110。电子设备100可以显示示出了运动图像的回放、回放停止以及进度状态的用户界面1150。电子设备100可以在显示器190的第二区域20中显示选择图标1130。用户可以通过选择图标1130在第一区域10中显示的运动图像1110中选择期望的帧。
参考图11A至图11C,在运动图像1110在第一区域10中被再现的状态下,电子设备100可以基于触摸选择图标1130的外部信号输入来产生第二(a)图像1121(其与第一区域10中当前显示的帧相同但小于该帧),并将所产生的第二(a)图像1121显示在第二区域20中。
电子设备100可以在第二区域20中显示第二(a)图像1121。在这种状态下,电子设备100可以连续地在第一区域10中再现运动图像1110。
根据一个实施例,电子设备100可以在第二(a)图像1121附近显示选择图标1130。用户可以通过选择图标1130在显示在第一区域10中的运动图像1110中选择当前帧。
参考图11A至图11C,在运动图像1110在第一区域10中被再现的状态下,电子设备100可以基于触摸选择图标1130的外部信号输入来产生第二(b)图像1122(其与第一区域10中当前显示的帧相同但小于该帧),并将所产生的第二(b)图像1122显示在第二区域20中。
电子设备100可以在第二区域20中显示第二(a)图像1121和第二(b)图像1122。在这种状态下,电子设备100可以基于外部信号输入连续地在第一区域10中再现运动图像1110。
根据一个实施例,电子设备100可以在第二(a)图像1121和第二(b)图像1122附近显示选择图标1130。用户可以通过选择图标1130在第一区域10中再现的运动图像1110中选择期望的帧。在运动图像1110在第一区域10中被再现的状态下,电子设备100可以基于触摸选择图标1130的外部信号输入来产生与在第一区域10中当前显示的帧相同但小于该帧的图像(未示出),并将所产生的图像显示在第二区域20中。
如上所述,根据本公开的一个实施例,用户可以在电子设备100中再现运动图像的同时选择期望的帧。电子设备100可以基于选择的帧产生包含目标点和摄影设置值在内的飞行数据,并向无人摄影设备200发送所产生的飞行数据。
根据各种实施例,运动图像1110可以存储每帧中的摄影信息,并且电子设备100可以基于存储在通过上述方法选择的帧中的摄影信息,来产生包含目标点和摄影设置值在内的飞行数据。
然而,本公开并不限于此。例如,当拍摄运动图像的电子设备是无人摄影设备时,如果无人摄影设备在用户的控制下飞行,则摄影信息可以以预定的时间间隔(例如,每秒一次)存储为元数据。根据另一实施例,拍摄运动图像的电子设备可以将在摄影开始之后的第一帧的摄影信息存储为整个运动图像文件的摄影信息。此外,拍摄运动图像的电子设备可以基于用户的控制信号的产生,将摄影信息存储为元数据。
另外,当无人摄影设备悬停在预定位置时,可以基于用户的控制信号输入来记录摄影信息,而不记录在未接收到用户的控制信号时所产生的摄影信息中的重叠信息。
图12A至图12C示出了根据本公开实施例的在由电子设备设置无人摄影设备的移动路径的同时选择摄影选项的处理。
图12A可以示出与图11C相同的情况。
参考图12A至图12C,在基于依次触摸第二(b)图像1122的信号拍摄与第二(b)图像1122相同的图像的点处,电子设备100可以显示用于设置摄影选项的用户界面1210。也就是说,用户可以在拍摄第二(b)图像之前通过用户设置的选项来改变无人摄影设备200中包括的相机模块460的摄影设置值。然而,由电子设备100显示用于设置摄影选项的用户界面1210的方法不限于此。
参考图12A至图12C,电子设备100可以显示用于设置摄影选项的用户界面1210。用户界面1210可以设置例如用于拍摄静止图像1220和运动图像1230的选项。
电子设备100可以基于用于选择拍摄静止图像1220的用户输入信号来显示与拍摄静止图像相关的选项。与拍摄静止图像相关的选项可以包括例如控制光圈值控制1221、曝光时间1222、灵敏度1223和曝光次数1224以及设置连续拍摄(未示出)。
参考图12A至图12C,电子设备100可以基于用于选择拍摄运动图像1230的用户输入信号来显示与拍摄运动图像相关的选项。与拍摄运动图像相关的选项可以包括例如控制光圈值(未示出)、曝光时间1231和灵敏度1232以及设置运动图像摄影时间1233。
图13A至图13C示出了根据本公开实施例的显示从多个图像中选择的图像以及所选图像被拍摄的位置、并由电子设备将所述图像被拍摄的位置设置为无人摄影设备的移动路径的处理。
参考图13A至图13C,电子设备100可以在显示器190的第三区域30中显示多个图像。电子设备100可以使用存储器330中预存储的图像文件或者从外部电子设备接收多个图像来在第三区域30中显示多个图像。电子设备100可以通过例如缩略图图像在第三区域30中显示多个图像。
电子设备100可以将基于选择在第三图像30中显示的图像之一的用户输入而选择的图像显示为第一区域10中的第一(a)图像1311。电子设备100可以基于例如所选图像的原始图像在第一区域10中显示图像。
电子设备100可以在显示器190的第二区域20中显示选择图标1330。用户可以通过选择图标1330选择第一区域10中显示的第一(a)图像1311。
根据一个实施例,当选择第一(a)图像1311时,电子设备100可以在地图1340上显示拍摄第一(a)图像1311的位置。
参考图13A至图13C,电子设备100可以基于触摸选择图标1330的外部信号输入产生第二(a)图像1321(其与在第一区域10中显示的第一(a)图像1311相同但是小于第一(a)图像1311),并将所产生的第二(a)图像1321显示在第二区域20中。然而,产生第二(a)图像1321的方法不限于此。
电子设备100可以在第二区域20中显示第二(a)图像1321。在这种状态下,电子设备100可以通过图13A中描述的方法在第一区域10中显示第一(b)图像1312。用户可以通过选择图标1330选择第一区域10中显示的第一(b)图像1312。电子设备100可以产生与所选第一(b)图像1312相同但小于第一(b)图像1312的第二(b)图像1322,并将所产生的第二(b)图像1322显示在第二区域20中。
根据一个实施例,当选择第一(b)图像1312时,电子设备100可以在地图1340上显示拍摄第一(b)图像1312的位置。
参考图13A至图13C,可以通过图13A中描述的方法在第一区域10中显示第一(c)图像1313。电子设备100可以基于触摸选择图标1330的外部信号输入产生第二(c)图像1323(其与当前在第一区域10中显示的第一(c)图像1313相同但是小于第一(c)图像1313),并将所产生的第二(c)图像1323显示在第二区域20中。
根据一个实施例,当选择第一(c)图像1313时,电子设备100可以在地图1340上显示拍摄第一(c)图像1313的位置。
电子设备100可以基于选择的图像产生包含目标点和摄影设置值在内的飞行数据,并向无人摄影设备200发送所产生的飞行数据。
如上所述,根据本公开的实施例,用户可以从多个图像中选择期望的图像,并将相应的图像插入到无人摄影设备200的飞行路径中。此外,通过在地图1340上显示拍摄所选图像的位置,用户可以在无人摄影设备飞行之前在地图1340上预测无人摄影设备的移动路径。
图14是示出了根据本公开实施例的由电子设备控制无人摄影设备的飞行路径的流程图。
参考图14,在操作1410中,电子设备100可以在显示器的显示区域的第一区域中显示第一图像。第一图像可以是电子设备100中存储的图像或从外部电子设备接收的图像。
在操作1420中,电子设备100可以推导出基于选择在第一区域中显示的第一图像的输入信号所选择的第一图像中包括的摄影信息。
摄影信息可以包括摄影设置值,例如光圈值、曝光时间和灵敏度。此外,摄影信息可以包括例如在拍摄第一图像的摄影设备拍摄第一图像的时间点由GPS使用的纬度、经度和高度信息。另外,摄影信息可以包括例如在拍摄第一图像的摄影设备拍摄第一图像的时间点基于地磁传感器或陀螺仪传感器获取的摄影设备的纬度、方位、包括在摄影设备中的相机的定向以及摄影设备的倾斜。
当拍摄第一图像的摄影设备是UAV时,摄影信息可以包含例如在拍摄第一图像的时间点处的UAV的位置信息(例如,横滚、俯仰和偏航信息)。
在操作1430中,电子设备100可以选择摄影信息中包含的图像摄影设备的位置信息作为无人摄影设备的移动路径的至少一个点,并将选择的点插入到移动路径中。
根据实施例的控制对无人摄影设备进行控制的电子设备的方法可以包括:显示第一图像的操作;推导出基于用于选择第一图像的外部信号输入所选择的第一图像中包含的摄影信息的操作;以及选择推导出的摄影信息中包含的与拍摄第一图像的位置有关的信息作为无人摄影设备的移动路径的至少一个点的操作。
在根据实施例的控制对无人摄影设备进行控制的电子设备的方法中,摄影信息可以包含拍摄第一图像的摄影设备在拍摄第一图像时设置的光圈值、曝光时间、灵敏度、视角、变焦倍率信息和方位信息。
根据实施例的控制对无人摄影设备进行控制的电子设备的方法还可以包括向无人摄影设备发送摄影信息和摄影信息中包含的位置信息的操作。
在根据实施例的控制对无人摄影设备进行控制的电子设备的方法中,显示第一图像的操作可以包括:基于外部信号输入来放大并显示第一图像的一个点、并且基于放大倍率改变无人摄影设备的移动路径的一个点的操作。
在根据实施例的控制对无人摄影设备进行控制的电子设备的方法中,显示第一图像的操作可以包括:基于外部信号输入来缩小并显示第一图像的一个点、并且基于缩小倍率改变无人摄影设备的移动路径的一个点的操作。
在根据实施例的控制对无人摄影设备进行控制的电子设备的方法中,推导出基于用于选择第一图像的外部信号输入所选择的第一图像中包含的摄影信息的操作可以包括:在显示器上显示与第一图像相同但小于第一图像的第二图像。
根据实施例的控制对无人摄影设备进行控制的电子设备的方法还可以包括以下操作:当基于外部信号输入结束第二图像的显示时,从无人摄影设备的移动路径移除关于与第二图像相关联的第一图像的位置信息。
在根据实施例的控制对无人摄影设备进行控制的电子设备的方法中,显示第一图像的操作可以包括在显示器上显示示出了第一图像的位置信息的地图的操作。
根据实施例的控制对无人摄影设备进行控制的电子设备的方法还可以包括:基于外部信号输入来显示用于选择在拍摄第一图像的位置处拍摄图像的选项的用户界面的操作。
图15示出了根据本公开实施例的网络环境内的电子设备。
将参考图15来描述根据各种实施例的网络环境1500内的电子设备1501。电子设备1501可以包括图1A至图1C的电子设备100。电子设备1501可以包括总线1510、处理器1520、存储器1530、输入/输出接口1550、显示器1560和通信电路1570。在一些实施例中,电子设备1501可以省略元件中的至少一个,或还可以包括其他元件。总线1510可以将元件1510至1570互连,并且可以包括例如在元件之间传输通信(例如,控制消息或数据)的电路。处理器1520可以包括中央处理单元、应用处理器和通信处理器(CP)中的一个或多个。例如,处理器1520可以执行与电子设备1501的至少一个其他元件的控制和/或通信相关的操作或数据处理。
存储器1530可以包括易失性和/或非易失性存储器。存储器1530可以存储例如与电子设备1501的至少一个其它元件相关的指令或数据。根据一个实施例,存储器1530可以存储软件和/或程序1540。程序1540可以包括例如内核1541、中间件1543、应用编程接口(API)1545和/或应用程序(或“应用”)1547。内核1541、中间件1543和API1545中的至少一些可以被称作操作系统(OS)。内核1541可以控制或管理用于执行其它程序(例如,中间件1543、API 1545或应用1547)所实现的操作或功能的系统资源(例如,总线1510、处理器1520或存储器1530等)。此外,内核1541可以提供接口,其中,中间件1543、API1545或应用程序1547可以通过所述接口访问电子设备1501的各个元件以便控制或管理系统资源。
中间件1543例如可以用作中介,从而允许API 1545或应用程序1547与内核1541通信以交换数据。此外,中间件1543可以根据优先级来处理从应用程序1547接收到的一个或多个任务请求。例如,中间件1543可以向一个或多个应用程序1547分配使用电子设备1501的系统资源(例如,总线1510、处理器1520、存储器1530等)的优先级,并可处理一个或多个任务请求。API 1545是被应用1547用来控制由内核1541或中间件1543提供的功能的接口,并且可以包括例如至少一个接口或功能(例如,指令),以进行文件控制、窗口控制、图像处理、字符控制等。例如,输入/输出接口1550可向电子设备1501的其他元件转发从用户或外部设备输入的指令或数据,或可向用户或外部设备输出从电子设备1501的其他元件接收的指令或数据。
显示器1560可以包括例如液晶显示器(LCD)、发光二极管(LED)显示器、有机发光二极管(OLED)显示器、微机电系统(MEMS)显示器或电子纸显示器。显示器1560可以显示例如用户的各种类型的内容(例如,文本、图像、视频、图标和/或符号)。显示器1560可以包括触摸屏,并可以接收例如通过使用电子笔或用户的身体部位进行的触摸、手势、接近或悬停输入。通信接口1570可以在例如电子设备1501和外部设备(例如,第一外部电子设备1502、第二外部电子设备1504或服务器1506)之间构建通信。例如,通信接口1570可以通过无线或有线通信连接到网络1562以与外部设备(例如,第二外部电子设备1504或服务器1506)进行通信或者经由短距离通信1564与第一外部电子设备1502进行通信。
无线通信可以包括例如使用以下至少一项的蜂窝通信:LTE、高级LTE(LTE-A)、码分多址(CDMA)、宽带CDMA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)等。根据一个实施例,无线通信可包括例如以下至少一项:WiFi、蓝牙、蓝牙低能耗(BLE)、ZigBee、近场通信(NFC)、磁安全传输、射频和体域网(BAN)。根据一个实施例,无线通信可以包括GNSS。GNSS可以是例如全球定位系统(GPS)、全球导航卫星系统(GLONASS)、北斗导航卫星系统(下文中称为“北斗”)或伽利略(欧洲全球基于卫星的导航系统)。在本文档的下文中,术语“GPS”可以与术语“GNSS”互换。有线通信可以包括例如通用串行总线(USB)、高清多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POST)等中的至少一个。网络1562可以包括电信网络,例如计算机网络(例如,局域网(LAN)或广域网(WAN))、互联网和电话网中的至少一个。
第一外部电子设备1502和第二外部电子设备1504中的每一个可以是与电子设备1501相同或不同类型的电子设备。根据本公开各种实施例,由电子设备1501执行的全部操作或部分操作可以由另一电子设备或多个电子设备(例如,第一外部电子设备1502和第二外部电子设备1504或服务器1506)来执行。根据一个实施例,当电子设备1501必须自动地或响应于请求来执行一些功能或服务时,电子设备1501可向另一设备(例如,电子设备1502或1504或服务器1506)请求执行与所述功能或服务相关的至少一些功能,而不是自身执行该功能或服务或附加地执行该功能或服务。另一电子设备(例如,电子设备1502或1504或服务器1506)可以执行所请求的功能或附加功能,并可以向电子设备1501传送执行结果。电子设备1501可以提供接收到的结果本身,或者可以附加地处理接收到的结果以提供请求的功能或服务。为此,例如,可以使用云计算、分布式计算或客户端-服务器计算技术。
图16是根据本公开实施例的电子设备1601的框图。
参考图16,电子设备1601可以包括例如图15的电子设备1501或图1A至图1C的电子设备100的全部或部分元件。电子设备1601可以包括至少一个处理器1610(例如,应用处理器(AP))、通信模块1620、用户标识模块1624、存储器1630、传感器模块1640、输入设备1650、显示器1660、接口1670、音频模块1680、相机模块1691、电源管理模块1695、电池1696、指示器1697和发动机1698。处理器1610可以控制连接到所述处理器的多个硬件或软件元件,并且可以通过驱动操作系统(OS)或应用程序来执行各种数据处理和操作。处理器1610可以通过例如片上系统(SoC)来实现。根据一个实施例,处理器1610还可以包括图形处理单元(GPU)和/或图像信号处理器(ISP)。处理器1610还可以包括图16中示出的元件中的至少一些(例如,蜂窝模块1621)。处理器1610可以将从至少一个其他元件(例如,非易失性存储器)接收到的指令或数据加载到易失性存储器中,处理加载的指令或数据,并且可以将得到的数据存储在非易失性存储器中。
通信模块1620可具有与通信接口1570相同或相似的配置。例如,通信模块1620可以包括蜂窝模块1621、Wi-Fi模块1623、蓝牙(BT)模块1625、GNSS模块1627、NFC模块1628和射频(RF)模块1629。蜂窝模块1621可以提供例如通过通信网络的语音呼叫、视频呼叫、文本消息服务、互联网服务等。根据一个实施例,蜂窝模块1621可以使用订户标识模块1624(例如,订户标识模块(SIM)卡)来识别和认证通信网络中的电子设备1601。根据一个实施例,蜂窝模块1621可以执行处理器1610可以提供的功能中的至少一些功能。根据一个实施例,蜂窝模块1621可以包括通信处理器(CP)。根据一些实施例,蜂窝模块1621、Wi-Fi模块1623、BT模块1625、GNSS模块1627和NFC模块1628中的至少一些(例如,两个或更多个)可以被包括在一个集成芯片(IC)中或IC封装中。RF模块1629可以发射/接收例如通信信号(例如RF信号)。RF模块1629可以包括例如收发机、功率放大模块(PAM)、频率滤波器、低噪放大器(LNA)、天线等。根据另一实施例,蜂窝模块1621、Wi-Fi模块1623、BT模块1625、GPS模块1627和NFC模块1628中的至少一个可以通过单独的RF模块来发送/接收RF信号。订户标识模块1624可以包括例如含有订户标识模块和/或嵌入式SIM的卡,且可以包含唯一识别信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户身份(IMSI))。
存储器1630(例如,存储器1530)可以包括例如内部存储器1632或者外部存储器1634。内部存储器1632可以包括例如以下至少一项:易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步DRAM(SDRAM)等)和非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、掩模ROM、闪存ROM、闪存、硬盘驱动器或固态驱动器(SSD))。外部存储器1634可以包括闪存驱动器,例如紧凑型闪存(CF)、安全数字(SD)、微型SD、迷你型SD、极限数字(xD)、多媒体卡(MMC)或存储棒等。外部存储器1634可以通过各种接口与电子设备1601功能连接和/或物理连接。
传感器模块1640可以例如测量物理量或检测电子设备1601的操作状态,并且可以将测量的或检测的信息转换为电信号。传感器模块1640可以包括例如以下至少一项:手势传感器1640A、陀螺仪传感器1640B、气压传感器1640C、磁传感器1640D、加速度传感器1640E、握持传感器1640F、接近传感器1640G、颜色传感器1640H(例如,红、绿、蓝(RGB)传感器)、生物传感器1640I、温度/湿度传感器1640J、照度传感器1640K和紫外线(UV)传感器1640M。附加地或者备选地,传感器模块1640可以包括例如电子鼻传感器、肌电图(EMG)传感器、脑电图(EE6)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器和/或指纹传感器。传感器模块1640还可以包括用于控制包括在其中的一个或多个传感器的控制电路。在一些实施例中,电子设备1601还可以包括配置为控制传感器模块1640的处理器,作为AP1610的一部分或独立于AP 1610,并可以在AP 1610处于睡眠状态期间控制传感器模块1640。
输入设备1650可以包括例如触摸面板1652、(数字)笔传感器1654、按键1656或超声输入设备1658。触摸面板1652可以是例如电容型、电阻型、红外型和超声型中的至少一种。此外,触控面板1652还可以包括控制电路。触摸面板1652还可以包括触觉层,以便向用户提供触觉反应。(数字)笔传感器1654可以包括例如识别片,该识别片是触摸面板的一部分或者与触摸面板分离。按键1656可以包括例如物理按钮、光学键或键区。超声输入设备1658可以通过麦克风(例如,麦克风1688)来检测由输入工具产生的超声波,以识别与检测到的超声波相对应的数据。
显示器1660(例如,显示器1560)可以包括面板1662、全息设备1664、投影仪1666和/或用于对它们进行控制的控制电路。面板1662可以被实现为例如柔性的、透明的或可穿戴的。面板1662可与触摸面板1652一起被配置为一个或多个模块。根据一个实施例,面板1662可以包括可以测量用户触摸的压力强度的压力传感器(或POS传感器)。压力传感器可以被实现为与触摸面板1652集成,或者可以利用独立于触摸面板1652的一个或多个传感器来实现。全息设备1664可以通过光的干涉在空中显示三维图像。投影仪1666可以通过将光投影到屏幕上来显示图像。该屏幕可以位于例如电子设备1601的内部或外部。接口1670可以包括例如HDMI 1672、USB 1674、光学接口1676或D-超小型(D-sub)接口1678。接口1670可以被包括在例如图15所示的通信接口1570中。附加地或备选地,接口1670可以包括例如移动高清链路(MHL)接口、安全SD卡/多媒体卡(MMC)接口或红外数据协会(IrDA)标准接口。
音频模块1680可以例如将声音转换为电信号,且反之亦然。音频模块1680的至少一部分元件可以包含在例如图15所示的输入/输出接口1550中。音频模块1680可以处理通过例如扬声器1682、听筒1684、耳机1686、麦克风1688等输入或输出的声音信息。相机模块1691是可以拍摄静态图像和运动图像的设备。根据一个实施例,相机模块1691可以包括一个或多个图像传感器(例如,前置传感器或后置传感器)、镜头、图像信号处理器(ISP)或闪光灯(例如,LED或氙气灯)。电源管理模块1695可以管理例如电子设备1601的电力。根据一个实施例,电源管理模块1695可以包括电源管理集成电路(PMIC)、充电器IC或者电池或燃料表。PMIC可以使用有线和/或无线充电方法。无线充电方法的示例可以包括磁共振方法、磁感应方法、电磁波方法等。还可以包括用于无线充电的附加电路(例如,线圈环、谐振电路、整流器等)。电池表可以测量例如电池1696的剩余电量以及在充电过程中的电压、电流或温度。例如,电池1696可以包括可再充电电池和/或太阳能电池。
指示器1697可以显示电子设备1601或电子设备1610的一部分(例如,处理器1601)的特定状态,例如,启动状态、消息状态、充电状态等。发动机1698可以将电信号转换成机械振动,并且可以产生振动、触觉效果等。电子设备1601可包括移动TV支持设备(例如,GPU),其可根据诸如数字多媒体广播(DMB)、数字视频广播(DVB)或mediaFloTM等的标准来处理媒体数据。根据本公开的硬件的每个上述组成元件可以配置有一个或多个组件,且相应组成元件的名称可以基于电子设备的类型而改变。在各实施例中,电子设备(例如,电子设备1601)可省略一些元件,或还可包括附加元件,或电子设备的一些元件可彼此组合以配置一个实体,在这种情况中,电子设备可等同地执行组合之前的相应元件的功能。
图17是根据本公开实施例的程序模块的框图。
参考图17,程序模块1710(例如,程序1540)可以包括用于控制与电子设备(例如,电子设备100、电子设备1501或电子设备1601)相关的资源的操作系统(OS)和/或在OS上执行的各种应用(例如,应用程序1547)。OS可以包括例如AndroidTM、iOSTM、WindowsTM、SymbianTM、TizenTM或BadaTM。参考图17,程序模块1710可以包括内核1720(例如内核1541)、中间件1730(例如,中间件1543)、API 1760(例如,API 1545)和/或应用1770(例如,应用程序1547)。程序模块1710的至少一部分可以预先加载到电子设备上,或者可以从外部电子设备(例如,电子设备1502或1504或服务器1506)下载。
内核1720可以包括例如系统资源管理器1721和/或设备驱动器1723。系统资源管理器1721可以控制、分配或获取系统资源。根据一个实施例,系统资源管理器1721可以包括进程管理器、存储器管理器或文件系统管理器。设备驱动器1723可以包括例如显示器驱动器、相机驱动器、蓝牙驱动器、共享存储器驱动器、USB驱动器、键区驱动器、Wi-Fi驱动器、音频驱动器或进程间通信(IPC)驱动器。中间件1730可以例如提供应用370共同需要的功能,或者可以通过API 1760向应用1770提供各种功能,使得应用1770可以高效地使用电子设备内的有限系统资源。根据实施例,中间件1730可以包括以下中的至少一项:运行时间库1735、应用管理器1741、窗口管理器1742、多媒体管理器1743、资源管理器1744、电源管理器1745、数据库管理器1746、数据包管理器1747、连接管理器1748、通知管理器1749、位置管理器1750、图形管理器1751和安全管理器1752。
运行时间库1735可以包括例如由编译器用来在执行应用1770期间通过编程语言来添加新功能的库模块。运行时间库1735可以管理输入/输出、管理存储器、或处理算术功能。应用管理器1741可以管理例如应用1770的生命周期。窗口管理器1742可以管理用于屏幕的GUI资源。多媒体管理器1743可以识别用于再现各种媒体文件所需的格式,并可以使用适于相应格式的编解码器对媒体文件进行编码或解码。资源管理器1744可以管理应用1770的源代码或存储器的空间。电源管理器1745可以管理例如电池的容量或功率,并可以提供用于操作电子设备所需的电力信息。根据一个实施例,电源管理器1745可以与基本输入/输出系统(BIOS)结合操作。数据库管理器1746可以例如产生、搜索或改变要由应用1770使用的数据库。数据包管理器1747可以管理以数据包文件形式分发的应用的安装或更新。
连接管理器1748可以管理例如无线连接。通知管理器1749可以向用户提供事件(例如,到达消息、预约、接近通知等)。位置管理器1750可以例如管理电子设备的位置信息。图形管理器1751可以管理将向用户提供的图形效果以及与图形效果相关的用户界面。安全管理器1752可以提供例如系统安全或用户认证。根据一个实施例,中间件1730可以包括用于管理电子设备的语音或视频呼叫功能的电话管理器,或包括能够形成上述元件的功能的组合的中间件模块。根据一个实施例,中间件1730可以提供取决于OS的专用模块。此外,中间件1730可以动态移除一些现有元件,或可以添加新元件。API 1760例如是API编程功能集合,并且可以根据OS被提供有不同配置。例如,在安卓或iOS的情况下,可以针对每个平台提供一个API集,在Tizen的情况下,可以针对每个平台提供两个或更多个API集。
应用1770可以包括例如:主页应用1171、拨号盘应用1772、短消息服务(SMS)/多媒体消息服务(MMS)1773、即时消息(IM)应用1774、浏览器应用1775、相机应用1776、闹钟应用1777、联系人应用1778、语音拨号应用1779、电子邮件应用1780、日历应用1781、媒体播放器应用1782、相册应用1783、时钟应用1784、健康护理应用(例如,用于测量锻炼量或血糖)以及环境信息(例如,气压、湿度和温度信息)提供应用等。根据一个实施例,应用1770可以包括能够支持电子设备和外部电子设备之间的信息交换的信息交换应用。信息交换应用可以包括例如用于将特定信息中继到外部电子设备的通知中继应用或用于管理外部电子设备的设备管理应用。例如,通知中继应用可以将在电子设备的其他应用中产生的通知信息中继到外部电子设备,或可从外部电子设备接收通知信息,并向用户提供所接收的通知信息。设备管理应用程序可以安装、删除或更新与电子设备通信的外部电子设备的功能(例如,打开/关闭外部电子设备本身(或其一些元件)或调整显示器的亮度(或分辨率))或在外部电子设备中执行的应用。根据一个实施例,应用1770可以包括根据外部电子设备的属性指定的应用(例如,移动医疗设备的健康护理应用)。根据一个实施例,应用1770可包括从外部电子设备接收的应用。程序模块1710中的至少一些可以通过软件、固件、硬件(例如,处理器1610)或者其中的两个或更多个的组合来实现(例如,执行),并且可以包括用于执行一个或多个功能的模块、程序、例程、指令集或处理。
这里使用的术语“模块”可以包括由硬件、软件或固件组成的单元,并且例如可以与术语“逻辑”、“逻辑块”、“组件”、“电路”等互换。“模块”可以是一个集成的组件或用于执行一个或多个功能的最小单元或其一部分。“模块”可以通过机械或电的方式实现,并且可以包括例如专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)和已知或者将来开发的用于执行某种操作的可编程逻辑器件中的至少一种。通过例如以程序模块形式存储在计算机可读存储介质(例如存储器1530)中的指令,可以实现根据各种实施例的设备(例如,其模块或功能)或方法(例如,操作)中的至少一些。指令在由处理器(例如,处理器1520)执行时,可以使一个或多个处理器执行与该指令相对应的功能。计算机可读存储介质可以包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,紧凑盘ROM(CD-ROM)、数字多功能盘(DVD))、磁光介质(例如,光磁软盘)、内部存储器等。指令可包括编译器制作的代码或可由解译器执行的代码。指令可包括编译器制作的代码或可由解译器执行的代码。由根据各种实施例的模块、可编程模块或其他元件执行的操作可以顺序地、并行地、可重复地或者按照探索性的方式执行。至少一些操作可以根据另一顺序来执行,可以被省略,或者还可包括其它操作。
尽管参考本公开各实施例示出并描述了本公开,但是本领域技术人员将理解:在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的前提下,可以进行形式和细节上的各种改变。
Claims (15)
1.一种用于控制无人摄影设备的电子设备,所述电子设备包括:
显示器,用于显示一个或多个图像;
存储器;以及
至少一个处理器,电连接到所述显示器和所述存储器,
其中所述至少一个处理器被配置为:
控制所述显示器在所述显示器上显示第一图像,
推导出基于用于选择第一图像的信号所选择的第一图像中包含的摄影信息,以及
选择所述摄影信息中包含的与拍摄第一图像的位置有关的信息作为所述无人摄影设备的移动路径的至少一个点。
2.根据权利要求1所述的电子设备,其中,所述摄影信息包括拍摄第一图像的摄影设备的在拍摄第一图像时设置的光圈值、曝光时间、灵敏度、视角、变焦倍率信息或方位信息中的至少一个。
3.根据权利要求1所述的电子设备,其中,所述至少一个处理器还被配置为向所述无人摄影设备发送所述摄影信息和所述摄影信息中包含的位置信息。
4.根据权利要求1所述的电子设备,其中,所述至少一个处理器还被配置为:
基于外部信号输入放大第一图像的一个点,并在所述显示器上显示包括该放大的点在内的第一图像,以及
基于放大倍率改变所述无人摄影设备的移动路径的一个点。
5.根据权利要求1所述的电子设备,其中,所述至少一个处理器还被配置为:
基于外部信号输入缩小第一图像的一个点,并在所述显示器上显示包括该缩小的点在内的第一图像,以及
基于缩小倍率改变所述无人摄影设备的移动路径的一个点。
6.根据权利要求1所述的电子设备,其中所述至少一个处理器还被配置为:基于用于选择第一图像的外部信号输入,在所述显示器上显示与第一图像相同但小于第一图像的第二图像。
7.根据权利要求6所述的电子设备,其中,当基于外部信号输入结束第二图像的显示时,所述至少一个处理器还被配置为从所述无人摄影设备的所述移动路径移除与第二图像相关联的第一图像的摄影位置。
8.根据权利要求1所述的电子设备,其中,所述至少一个处理器还被配置为基于用于选择第一图像的外部信号输入,在所述显示器上显示示出了第一图像的位置信息的地图。
9.根据权利要求1所述的电子设备,其中,所述至少一个处理器还被配置为:基于外部信号输入显示用于选择在拍摄第一图像的位置处拍摄图像的选项的用户界面。
10.根据权利要求1所述的电子设备,其中,当第一图像是运动图像时,所述至少一个处理器还被配置为:基于用于选择第一图像的外部信号输入,推导出所述显示器上显示的帧中包含的摄影信息。
11.一种控制对无人摄影设备进行控制的电子设备的方法,所述方法包括:
在显示器上显示第一图像;
推导出基于用于选择第一图像的外部信号输入所选择的第一图像中包含的摄影信息;以及
选择所述摄影信息中包含的与拍摄第一图像的位置有关的信息,作为所述无人摄影设备的移动路径的至少一个点。
12.根据权利要求11所述的方法,其中,所述摄影信息包括拍摄第一图像的摄影设备的在拍摄第一图像时设置的光圈值、曝光时间、灵敏度、视角、变焦倍率信息或方位信息中的至少一个。
13.根据权利要求11所述的方法,还包括:
向所述无人摄影设备发送所述摄影信息和所述摄影信息中包含的位置信息。
14.根据权利要求11所述的方法,其中在所述显示器上显示第一图像包括:
基于外部信号输入放大并显示第一图像的一个点,以及
基于放大倍率改变所述无人摄影设备的移动路径的一个点。
15.根据权利要求11所述的方法,其中在所述显示器上显示第一图像包括:
基于外部信号输入缩小并显示第一图像的一个点,以及
基于缩小倍率改变所述无人摄影设备的移动路径的一个点。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160164415A KR20180064148A (ko) | 2016-12-05 | 2016-12-05 | 전자 장치 및 전자 장치 제어 방법 |
KR10-2016-0164415 | 2016-12-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108153326A true CN108153326A (zh) | 2018-06-12 |
Family
ID=60673110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711273021.0A Withdrawn CN108153326A (zh) | 2016-12-05 | 2017-12-05 | 电子设备和控制电子设备的方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180157252A1 (zh) |
EP (1) | EP3330178B1 (zh) |
KR (1) | KR20180064148A (zh) |
CN (1) | CN108153326A (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11048257B2 (en) * | 2018-01-23 | 2021-06-29 | Gopro, Inc. | Relative image capture device orientation calibration |
WO2020150974A1 (zh) * | 2019-01-24 | 2020-07-30 | 深圳市大疆创新科技有限公司 | 拍摄控制方法、可移动平台与存储介质 |
WO2020150980A1 (zh) * | 2019-01-24 | 2020-07-30 | 深圳市大疆创新科技有限公司 | 图像控制方法、设备和可移动平台 |
CN111699453A (zh) * | 2019-07-01 | 2020-09-22 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置、设备及存储介质 |
US20220221297A1 (en) * | 2020-06-02 | 2022-07-14 | FLIR Belgium BVBA | Waypoint timeline user interface systems and methods |
WO2022070851A1 (ja) * | 2020-09-30 | 2022-04-07 | 株式会社Clue | 方法、システムおよびプログラム |
CN113741497A (zh) * | 2021-08-25 | 2021-12-03 | 深圳市道通智能航空技术股份有限公司 | 云台方向的控制方法、装置及终端 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9460120B2 (en) * | 2010-10-01 | 2016-10-04 | Microsoft Licensing Technology, LLC | Travel route planning using geo-tagged photographs |
JP6143433B2 (ja) * | 2012-10-31 | 2017-06-07 | キヤノン株式会社 | 医用画像撮影装置、医用画像の表示方法 |
US9323855B2 (en) * | 2013-02-05 | 2016-04-26 | Facebook, Inc. | Processing media items in location-based groups |
US9798322B2 (en) * | 2014-06-19 | 2017-10-24 | Skydio, Inc. | Virtual camera interface and other user interaction paradigms for a flying digital assistant |
KR102213897B1 (ko) * | 2014-10-31 | 2021-02-08 | 삼성전자주식회사 | 사용자 입력에 따라 하나 이상의 아이템들을 선택하는 방법 및 이를 위한 전자 장치 |
KR20160058471A (ko) * | 2014-11-17 | 2016-05-25 | 엘지전자 주식회사 | 이동 단말기 및 그 제어 방법 |
WO2016130994A1 (en) * | 2015-02-13 | 2016-08-18 | Unmanned Innovation, Inc. | Unmanned aerial vehicle remote flight planning system |
CN107531326B (zh) * | 2015-03-12 | 2019-04-16 | 奈庭吉尔智慧系统公司 | 自动化无人机系统 |
WO2016161426A1 (en) * | 2015-04-03 | 2016-10-06 | 3D Robotics, Inc. | Systems and methods for controlling pilotless aircraft |
KR102364730B1 (ko) * | 2015-07-29 | 2022-02-18 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
US20170242432A1 (en) * | 2016-02-24 | 2017-08-24 | Dronomy Ltd. | Image processing for gesture-based control of an unmanned aerial vehicle |
-
2016
- 2016-12-05 KR KR1020160164415A patent/KR20180064148A/ko unknown
-
2017
- 2017-12-01 US US15/828,930 patent/US20180157252A1/en not_active Abandoned
- 2017-12-05 EP EP17205341.5A patent/EP3330178B1/en active Active
- 2017-12-05 CN CN201711273021.0A patent/CN108153326A/zh not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
KR20180064148A (ko) | 2018-06-14 |
EP3330178A1 (en) | 2018-06-06 |
US20180157252A1 (en) | 2018-06-07 |
EP3330178B1 (en) | 2020-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10635902B2 (en) | Electronic apparatus and operating method thereof | |
CN108153326A (zh) | 电子设备和控制电子设备的方法 | |
US11604574B2 (en) | Electronic device and method for electronic device displaying image | |
US20170293297A1 (en) | Electronic apparatus and operating method thereof | |
CN108279832A (zh) | 图像采集方法和电子装置 | |
KR102367828B1 (ko) | 이미지 운용 방법 및 이를 지원하는 전자 장치 | |
CN107800930A (zh) | 图像合成方法和支持该方法的电子设备 | |
CN110462572A (zh) | 电子装置及其控制方法 | |
US20170134699A1 (en) | Method and apparatus for photographing using electronic device capable of flying | |
CN110326033A (zh) | 用于控制无人驾驶飞行器的电子装置及操作该电子装置的方法 | |
KR20170019823A (ko) | 이미지 처리 방법 및 이를 지원하는 전자장치 | |
CN108462818A (zh) | 电子设备及用于在该电子设备中显示360度图像的方法 | |
CN108513060A (zh) | 使用外部电子设备的拍摄方法和支持该方法的电子设备 | |
CN107925799B (zh) | 用于生成视频内容的方法和设备 | |
CN110268707A (zh) | 用于捕捉图像的传感器及其控制方法 | |
CN107613283A (zh) | 视频中的基于对象或区域的聚焦控制 | |
CN106228511A (zh) | 电子装置以及用于在电子装置中产生图像文件的方法 | |
CN115439606A (zh) | 三维重建方法、图形界面、系统及相关装置 | |
CN108427533A (zh) | 电子设备及用于确定电子设备的环境的方法 | |
KR20170092772A (ko) | 이미지 처리장치 및 방법 | |
CN108632529A (zh) | 为焦点提供图形指示符的电子设备及操作电子设备的方法 | |
CN105933689A (zh) | 图像处理方法和支持该方法的电子设备 | |
US11297225B2 (en) | Video producing method, apparatus, storage medium, and electronic device | |
CN108369474A (zh) | 电子设备和电子设备的显示方法 | |
CN112989092A (zh) | 一种图像处理方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20180612 |