WO2022056683A1 - 视场确定方法、视场确定装置、视场确定系统和介质 - Google Patents

视场确定方法、视场确定装置、视场确定系统和介质 Download PDF

Info

Publication number
WO2022056683A1
WO2022056683A1 PCT/CN2020/115379 CN2020115379W WO2022056683A1 WO 2022056683 A1 WO2022056683 A1 WO 2022056683A1 CN 2020115379 W CN2020115379 W CN 2020115379W WO 2022056683 A1 WO2022056683 A1 WO 2022056683A1
Authority
WO
WIPO (PCT)
Prior art keywords
view
image
field
sub
movable platform
Prior art date
Application number
PCT/CN2020/115379
Other languages
English (en)
French (fr)
Inventor
翁松伟
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to PCT/CN2020/115379 priority Critical patent/WO2022056683A1/zh
Priority to CN202080035373.6A priority patent/CN113841381B/zh
Publication of WO2022056683A1 publication Critical patent/WO2022056683A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Definitions

  • embodiments of the present application provide a computer-readable storage medium, which stores executable instructions, and when the executable instructions are executed by one or more processors, can cause one or more processors to execute the above method.
  • FIG. 6 is a schematic diagram of a camera field of view and an auxiliary field of view provided by another embodiment of the present application;
  • FIG. 10 is a schematic diagram of setting base point setting information provided by an embodiment of the present application.
  • FIG. 16 is a schematic diagram of an image fusion process for the tall building shown in FIG. 15 according to an embodiment of the present application;
  • Communication may include sensory information transmitted from one or more different types of sensors, such as GPS sensors, motion sensors, inertial sensors, proximity sensors, or image sensors.
  • the sensing information is about the position (eg, orientation, position), motion, or acceleration of the movable platform 10 , the carrier 13 and/or the image capture device 14 .
  • Sensory information communicated from image capture device 14 includes data captured by image capture device 14 or the state of image capture device 14 .
  • the control data transmitted by the control terminal 20 may be used to control the state of one or more of the movable platform 10 , the carrier 13 or the image capture device 14 .
  • the auxiliary field of view is larger than the current field of view of the image capture device used to capture the image, which facilitates the user to obtain images with a large field of view.
  • a larger auxiliary field of view can be obtained by zooming.
  • the desired field of view may be smaller than the minimum field of view of the image capture device, or may be larger than the maximum field of view of the image capture device.
  • the auxiliary field of view includes at least two sub-auxiliary fields of view.
  • the auxiliary field of view 600 may include a plurality of sub-auxiliary fields of view 610 , wherein each sub-auxiliary field of view 610 may correspond to a camera field of view.
  • the auxiliary field of view 600 may be formed by splicing multiple sub-auxiliary fields of view 610 (for example, the user controls the camera to remain stationary in a certain posture for a duration exceeding the duration threshold, or in which postures the user is set as a sub-assistant). field of view).
  • the auxiliary field of view 600 may also be based on the area covered by at least two sub-aided fields of view. In FIG.
  • the camera field of view 710 is the field of view when the lens is in a certain pose, such as the current pose or after the user adjusts the pose of the drone and/or the gimbal, so that the camera is in a certain pose.
  • the auxiliary field of view 730 is set or preset by the user, for example, the user changes the focal length of the camera, or switches the wide-angle lens, or moves the camera away from the object to be photographed, so that the field of view becomes larger to obtain the auxiliary field of view 730, and the field of view is changed.
  • the inner image is sent to the control terminal for display.
  • the user selects the center point in the auxiliary field of view 730 as the base point 720 .
  • the auxiliary field of view 730 may be larger than the desired field of view 700 .
  • determining at least one base point in the auxiliary field of view may include an operation of determining at least one base point in the auxiliary field of view based on a preset position of the second field of view.
  • the preset position of the second field of view includes at least one of the following: a center point, a vertex, and any point determined based on a preset rule.
  • determining at least one base point from each of the sub-aided fields of view may include the following operations: first, acquiring a second user instruction. Then, at least one base point is determined in the sub-auxiliary field of view in response to the second user instruction.
  • the second user instruction may be a user instruction generated for user operations such as clicking, sliding, pressing, etc. of an interactive component, a mechanical button, or the like.
  • it can also be automatically determined from the auxiliary field of view based on preset rules. The manner of determining the second user instruction may refer to the first user instruction, which will not be repeated here.
  • the preset position of the first field of view includes at least one of the following: a center point, a vertex, and any point determined based on a preset rule.
  • processing an image includes, but is not limited to, at least one of: image synthesis, image style (such as beach style, retro style, big head style, etc.), image rotation, and image cropping.
  • shooting can also be performed directly according to the desired field of view, that is, the planning of the shooting trajectory is performed along the boundary of the desired field of view, so that each imaging is within the desired field of view, without Including the area outside the desired field of view, the initial image corresponding to the field of view collected by the image transmission is the image that matches the desired field of view. In this way, the initial image may not be cropped when obtaining an image that matches the desired field of view.
  • the fast parts can be adjusted first. If the adjustment speed is relatively close, the components with low energy consumption can be adjusted first.
  • the adjustment priority of the gimbal pitch angle in the pitch angle information is greater than or equal to the adjustment priority of the movable platform pitch angle
  • the adjustment priority of the gimbal yaw angle in the yaw angle information is greater than or equal to Adjustment priority of movable platform yaw angle.
  • the camera 1320 needs to perform image acquisition on the six sub-acquisition fields of view 1310 respectively.
  • the two sub-acquisition fields of view 1310 at the same height can be aligned respectively by adjusting the yaw angle information of the pan/tilt head and/or the UAV, so as to perform image acquisition.
  • the embodiment of the present application can adjust the height of the drone and/or the attitude of the pan/tilt head to align each sub-acquisition field of view respectively for image acquisition.
  • the matrix can be expressed as: [UAV horizontal offset, UAV height offset; UAV horizontal offset angle + gimbal horizontal offset angle, gimbal pitch offset angle] .
  • the images acquired for each sub-acquisition field of view may be image processed in the following manner.
  • synthesizing the initial image corresponding to the image capturing field of view based on the multiple sub-images may include: synthesizing the multiple sub-images based on a feathering manner to obtain the initial image corresponding to the image capturing field of view.
  • feathering is to blur the inner and outer connection parts of the selected area, and play a role of gradual change to achieve the effect of natural connection.
  • the image capture device for capturing images is provided on a pan-tilt head, and the pan-tilt head is provided on a movable platform.
  • the drone can enter the hover lock to rotate at a high speed, and the fuselage can only slowly rotate the yaw axis (YAW, that is, the horizontal steering axis) and rotate the gimbal.
  • YAW yaw axis
  • the extraordinary mode there are interactive components for the extraordinary mode on the application (APP) of the control terminal, and the extraordinary mode is entered after operating the interaction component corresponding to the extraordinary mode (for example, clicking the automatic mode button).
  • the 3A parameters of the mode automated or manual, exposure parameters, etc. can be set
  • the storage method such as stored in the memory card of the drone or sent to the control terminal for storage
  • the camera module recognizes the multiple pictures taken, and by identifying the seamlines of the images (seeking seamline methods: point-by-point method, dynamic programming dp method and graph cutting method, etc.), the multiple images are stitched together.
  • the photos are combined into a final panorama. This allows the panorama to be output to the user.
  • Determining the at least one base point in the auxiliary field of view may be performed by the control terminal.
  • the above method can also be applied to the determination of the sensing range of loads other than the image capture device, etc., so as to arbitrarily plan the sensing range of the load through the selection of the base point, and obtain the desired sensing range.
  • the load includes, but is not limited to, an audio acquisition device, a ranging device, and the like.
  • the apparatus 1600 for determining the field of view may include one or more processors 1610, and the one or more processors 1610 may be integrated in one processing unit, or may be separately provided in multiple processing units.
  • the computer-readable storage medium 1620 is used to store one or more computer programs 1621.
  • the computer program when executed by the processor, implements the above field of view determination method, for example, obtains a first user instruction; in response to the first user instruction, Determining at least one base point from within the auxiliary field of view; and determining a desired field of view based on the at least one base point to obtain an image that matches the desired field of view.
  • At least a part of the field of view determination device 1600 may be provided in a movable platform, such as at least one of an information transmission function, an environmental information sensing function, and a linkage control function.
  • at least part of the field of view determining device 1600 may be provided in an image capturing device, such as an image compositing function, an image cropping function, and the like.
  • the processing unit may comprise a Field-Programmable Gate Array (FPGA) or one or more ARM processors.
  • the processing unit may be connected to non-volatile computer readable storage medium 1620 .
  • the non-volatile computer-readable storage medium 1620 may store logic, code, and/or computer instructions executed by the processing unit for performing one or more steps.
  • the non-volatile computer-readable storage medium 1620 may include one or more storage units (removable media or external memory such as SD card or RAM).
  • the data sensed by the sensors may be transferred and stored directly into a storage unit of the non-volatile computer-readable storage medium 1620 .
  • the processing unit may be connected to the control module for controlling the state of the movable platform.
  • the control module may be used to control the power mechanism of the movable platform to adjust the spatial orientation, velocity and/or acceleration of the movable platform relative to six degrees of freedom.
  • the control module may control one or more of the carrier, load or sensing module.
  • the above-mentioned various components may be compatible with each other.
  • one or more components are located on a movable platform, carrier, payload, terminal, sensing system, or additional external device in communication with each of the foregoing.
  • one or more of the processing unit and/or non-transitory computer-readable medium may be located in different locations, such as on a removable platform, carrier, payload, terminal, sensing system, or Additional external devices that communicate with the foregoing devices and various combinations of the foregoing.
  • the processing unit may be connected to the memory.
  • Memory includes volatile or non-volatile storage media for storing data, and/or logic, code, and/or program instructions executable by a processing unit for performing one or more rules or functions.
  • the memory may include one or more storage units (removable media or external memory such as SD card or RAM).
  • the data input to the module may be directly transferred and stored in a storage unit of the memory.
  • the storage units of the memory may store logic, code and/or computer instructions executed by the processing unit to perform various embodiments of the various methods described herein.
  • the processing unit may be configured to execute instructions to cause one or more processors of the processing unit to process and display sensory data (eg, images) obtained from the movable platform, control commands generated based on user input, including motion commands and objects information, and cause the communication module to transmit and/or receive data, etc.
  • the storage unit may store sensed data or other data received from an external device such as a removable platform.
  • the storage unit of the memory may store the processing result generated by the processing unit.
  • the communication module may be used to transmit and/or receive data from one or more remote devices (eg, removable platforms, carriers, base stations, etc.).
  • the communication module can transmit control signals (such as motion signals, target information, and tracking control commands) to peripheral systems or devices, such as the movable platform 10 , the carrier 13 and/or the image capture device 14 in FIG. 2 .
  • the communication module may include a transmitter and a receiver for receiving data from and transmitting data to the remote device, respectively.
  • the communication module may include a transceiver that combines the functions of a transmitter and a receiver.
  • the transmitter and receiver and the processing unit may communicate with each other. Communication may utilize any suitable means of communication, such as wired or wireless communication.
  • Images captured by the movable platform during motion can be transmitted from the movable platform or imaging device back to a control terminal or other suitable device for display, playback, storage, editing, or other purposes. Such transmission may occur in real-time or near real-time as the imaging device captures the imagery. Optionally, there may be a delay between the capture and transmission of the imagery.
  • the imagery may be stored in the removable platform's memory without being transferred anywhere else. The user can view these images in real time and, if necessary, adjust target information or other aspects of the movable platform or its components. Adjusted object information may be provided to the movable platform, and the iterative process may continue until the desired image is obtained.
  • the imagery may be transmitted to a remote server from the removable platform, the imagery device, and/or the control terminal. For example, images can be shared on some social networking platforms, such as WeChat Moments or Weibo.
  • the first user instruction includes a position adjustment instruction of the gimbal, an attitude adjustment instruction of the gimbal, a position adjustment instruction of the movable platform, an attitude adjustment instruction of the movable platform, a focus adjustment instruction, and a lens switching instruction. at least one.
  • determining the auxiliary field of view includes: in response to the first user instruction, by adjusting the position and/or attitude of the pan/tilt head, adjusting the position and/or attitude of the movable platform, adjusting the focal length, and switching the lens
  • the current field of view is sequentially switched to each of the at least two sub-auxiliary fields of view to determine the at least two sub-auxiliary fields of view.
  • determining at least one base point in the auxiliary field of view includes: respectively determining at least one base point from each sub-auxiliary field of view.
  • the above method before acquiring the third user instruction, further includes: outputting an image corresponding to the auxiliary field of view through the display module.
  • acquiring the third user instruction includes: in the process of outputting the image corresponding to the auxiliary field of view through the display module, acquiring a user operation for the image corresponding to the auxiliary field of view, and determining the third user instruction based on the user operation.
  • the auxiliary field of view includes at least two sub-auxiliary fields of view.
  • the preset position of the first field of view includes at least one of the following: a center point, a vertex, and any point determined based on a preset rule.
  • the controlling terminal for determining the desired field of view based on the at least one base point may include the following operations: the controlling terminal is configured to determine the image capturing field of view based on the at least one base point, and the image capturing area covered by the image capturing field of view includes the desired field of view Covered image acquisition area in order to obtain images that fit the desired field of view.
  • control terminal is configured to determine the image acquisition field of view based on the at least one base point.
  • image capturing device is also used for acquiring the base point; and cropping the acquired image to obtain an image matching the desired field of view.
  • the multiple sub-capturing fields of view may be determined in the following manner: first, the movable platform and/or the image capturing device are used to determine a first image capturing area corresponding to the image capturing field of view, and The second image acquisition area corresponding to the field of view. Then, the movable platform and/or the image capturing device are configured to decompose the first image capturing area based on at least the second image capturing area to obtain multiple sub-image capturing areas to determine multiple sub-capturing fields of view.
  • the image capturing device is configured to separately perform image capture in multiple sub-capturing fields of view, and obtaining the multiple sub-images may include the following operations.
  • the image capturing device is configured to separately capture multiple sub-images corresponding to the multiple sub-image capturing areas.
  • the area overlap ratio is determined based on a user operation or a preset overlap ratio.
  • the specific content refer to the same part of the previous embodiment, which will not be repeated here.
  • the photographing pose information includes at least one of pitch angle information, yaw angle information, and roll angle information.
  • the image capture device is provided on a pan-tilt head, and the pan-tilt head is provided on a movable platform.
  • the pitch angle information includes at least one of the movable platform pitch angle information and the gimbal pitch angle information; and/or the yaw angle information includes the movable platform yaw angle information and the gimbal yaw angle information. at least one.
  • the photographing pose information further includes: position information, the position information includes height information, the height information represents displacement information of the movable platform in the vertical direction, and the image capturing device is arranged on the movable platform.
  • position information the position information includes height information
  • height information represents displacement information of the movable platform in the vertical direction
  • image capturing device is arranged on the movable platform.
  • the shooting pose information is determined based on the image capturing area corresponding to the current shooting pose and multiple sub-image capturing regions, and is used for the sequential switching of the image capturing device from the current image capturing region to the multiple sub-image capturing regions, In order to carry out image acquisition under each sub-image acquisition area.
  • the image capturing device is set on a pan-tilt, and the pan-tilt is set on a movable platform, and the movable platform is in a hovering state and a vertical lifting state during the process of acquiring an image that matches the desired field of view Or any of the horizontal movement states.
  • the specific content refer to the same part of the previous embodiment, which will not be repeated here.
  • control terminal after the control terminal is used to acquire the image that matches the desired field of view, the control terminal is further configured to output the image that matches the desired field of view through the display module.
  • the control terminal is further configured to enter the preset mode in response to the first user instruction model.
  • the image capturing device is set on the pan-tilt, and the pan-tilt is set on the movable platform; and the movable platform is in a hovering state, a vertical lifting state or a horizontal moving state in a preset mode.
  • the head is in a locked state or can be rotated about at least one of at least one axis.
  • control terminal is provided on a movable platform.
  • control terminal and movable pan are integrated.
  • specific content refer to the same part of the previous embodiment, which will not be repeated here.
  • FIG. 18 is a schematic structural diagram of a movable platform provided by an embodiment of the present application.
  • the movable platform may be an unmanned aerial vehicle 170, and the unmanned aerial vehicle 170 may include a plurality of power systems 171 and a tripod.
  • the gimbal can be set on the drone 170.
  • the movable platform is a robot 180 , such as a robot that travels on land, and a pan/tilt can be set on the land robot.
  • the mobile platform is described as a land robot, such description is not limiting, and any type of mobile platform described above is applicable (eg, aerial robots, water robots).
  • the drive means may be located on the bottom of the movable platform.
  • the sensing module may include one or more sensors to detect relevant information of the land robot, such as obstacle information, environmental information, image information of the target object, and the like.
  • the land robot may also include a communication system for information interaction with one or more terminals.
  • the driving device may be the above-mentioned power system 181, such as a motor, etc.
  • the sensing module may include radar, laser sensor, positioning sensor, and the like.
  • Terminals include but are not limited to: remote controllers, desktop computers, notebook computers, etc.
  • the communication between the land robot and the terminal can be the same as the prior art, which will not be described in detail here.
  • FIG. 20 schematically shows a schematic diagram of a movable platform according to another embodiment of the present application.
  • the movable platform is a hand-held pan-tilt 190
  • the hand-held pan-tilt 190 may include the structure of the pan-tilt as described above.
  • the hand-held pan/tilt 190 may include: a pan/tilt and a handle supporting the pan/tilt, the handle is a part that the user holds, and may include control buttons to facilitate the operation of the pan/tilt.
  • the handheld pan/tilt 190 is connected in communication with a functional component (such as a camera) in the stand, so as to obtain image information captured by the camera.
  • the handheld PTZ 190 can also be connected with a terminal device 191 (such as a mobile phone), etc., so as to send information such as images to the mobile phone.
  • a terminal device 191 such as a mobile phone

Abstract

一种视场确定方法、视场确定装置、视场确定系统和介质,该视场确定方法包括:获取第一用户指令;响应于所述第一用户指令,从辅助视场内确定至少一个基点;以及基于至少一个所述基点确定期望视场,以得到与所述期望视场相吻合的图像。本申请可以由用户从辅助视场中确定至少一个基点,使得可以自动基于该至少一个基点确定用户的期望视场。

Description

视场确定方法、视场确定装置、视场确定系统和介质 技术领域
本申请涉及摄像技术领域,尤其涉及一种视场确定方法、视场确定装置、视场确定系统和介质。
背景技术
随着科技的发展,通过可移动平台进行拍摄,如空中摄影技术越来越受到用户的喜爱。其中,无人机航拍技术由于其成本较载人航拍更低且更为安全,逐渐得到摄影师的青睐。无人机航拍工作通常采用飞行器搭载摄影机、照相机等图像捕捉装置进行拍摄。
然而,相关技术中在利用可移动平台进行拍摄时,可能由于空间和相机视场(FOV)等的局限性,无法便利地通过图像捕捉装置确定用户的期望视场,进而也不便于用户拍摄期望视场中景象的图像。
发明内容
有鉴于此,本申请实施例提供一种视场确定方法、视场确定装置、视场确定系统和介质,以满足用户通过图像捕捉装置确定用户的期望视场的需求。
第一方面,本申请实施例提供了一种视场确定方法,该方法包括:首先,获取第一用户指令。然后,响应于第一用户指令,从辅助视场内确定至少一个基点。接着,基于至少一个基点确定期望视场,以得到与期望视场相吻合的图像。
第二方面,本申请实施例提供了一种视场确定装置,该装置包括:一个或多个处理器;以及计算机可读存储介质,用于存储一个或多个计算机程序,计算机程序在被处理器执行时,实现:首先,获取第一用户指令。然后,响应于第一用户指令,从辅助视场内确定至少一个基点。接着,基于至少一个基点确定期望视场,以得到与期望视场相吻合的图像。
第三方面,本申请实施例提供了一种视场确定系统,该系统包括:相互通信连接的控制终端和可移动平台,控制终端上设置有图像捕捉装置,控制终端被配置:所述控制终端获取第一用户指令;所述控制终端响应于所述第一用户指令,从辅助视场内确定至少一个基点,所述辅助视场是基于所述可 移动平台上的图像捕捉装置的视场来确定的;以及,所述控制终端基于至少一个基点确定期望视场,以得到与所述期望视场相吻合的图像。
第四方面,本申请实施例提供了一种计算机可读存储介质,其存储有可执行指令,可执行指令在由一个或多个处理器执行时,可以使一个或多个处理器执行如上的方法。
第五方面,本申请实施例提供了一种计算机程序,包括可执行指令,该可执行指令在被执行时,实现如上的方法。
在本实施例中,用户可以在辅助视场内选取基点,进而基于该基点确定用户的期望视场,并得到与期望视场相吻合的图像。如此,通过基点的选取,可以任意规划期望视场的大小以及覆盖的视场范围,使得最终获取的图像的大小以及覆盖的视场范围完全与期望视场一致,避免了不期望的画面内容的摄入,也避免了后期复杂的剪辑工作,能够让用户感受即拍即得的图像拍摄体验。
本申请的附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
通过参照附图的以下详细描述,本申请实施例的上述和其他目的、特征和优点将变得更容易理解。在附图中,将以示例以及非限制性的方式对本申请的多个实施例进行说明,其中:
图1为本申请实施例提供的视场确定方法、视场确定装置、视场确定系统和介质的应用场景;
图2为本申请另一实施例提供的视场确定方法、视场确定装置、视场确定系统和介质的应用场景;
图3为本申请实施例提供的视场确定方法的流程示意图;
图4为本申请实施例提供的相机视场和辅助视场的示意图;
图5为本申请另一实施例提供的相机视场和辅助视场的示意图;
图6为本申请另一实施例提供的相机视场和辅助视场的示意图;
图7为本申请实施例提供的辅助视场、基点和期望视场的示意图;
图8为本申请另一实施例提供的辅助视场、基点和期望视场的示意图;
图9为本申请另一实施例提供的辅助视场、基点和期望视场的示意图;
图10为本申请实施例提供的设置基点设置信息的示意图;
图11为本申请实施例提供的对初始图像进行裁剪的示意图;
图12为本申请实施例提供的将期望视场分解为多个子采集视场的示意图;
图13为本申请实施例提供的分别对多个子采集视场的图像进行采集的示意图;
图14为本申请实施例提供的对图像进行融合的示意图;
图15为现有技术提供的高楼的全景图像;
图16为本申请实施例提供的针对图15所示的高楼的图像融合过程示意图;
图17为本申请实施例提供的视场确定装置的结构示意图。
图18为本申请实施例提供的可移动平台的结构示意图;
图19为本申请另一实施例提供的可移动平台的结构示意图;以及
图20为本申请另一实施例提供的可移动平台的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
以航拍的场景为例,本申请实施例可以适用于用户(如飞手)在无人机航拍时候,由于空间和相机的视场(FOV)的局限性,无法一次性拍摄到飞手所需的图像,或者,无法基于球型全景拍摄方式拍摄到飞手想要的图像的场景下,使得飞手可以基于自定义的FOV,通过诸如无人机进行多次拍摄,融合后得到飞手想要的图像,该图像与飞手的期望视场相吻合。
这样使得在无人机航拍时,可以自动从飞手所需的FOV中取景,减少后期使用软件编辑的时间,减少FOV外区域对FOV内区域的影响,便于飞手在现场进行图像编辑,减少后期Photoshop(PS)编辑时间,现场判断图像质量,减少重复拍摄次数。
需要说明的是,以上场景仅为示例性的场景,还可以是针对高楼大厦、景观文物等的拍摄场景等,不能理解为对本申请的限制。
为了便于更好地理解本申请的实施例,首先对相关技术中关于可移动平台拍摄的算法进行简单说明。当无人机航拍无法拍摄全部期望视场时(如期望视场超过相机处于当前位置和焦距下的最大视场),相关技术可以通过控制无人机远离待拍摄的景象,使得相机视场可以包括期望视场。然而,受空间限制,或者,因镜头远离导致拍摄画面细微处的损失,光线的影响和其它元素等的影响,无法满足用户对拍照摄像效果的需求。此外,还可能存在用户期望的构图的视觉中存在遮挡物等,导致画面内容不符合预期的情况。例如,现有技术中的全景图像,其中,可能包括遮挡物等。
为了便于理解本申请的技术方案,以下结合图1~图19进行详细说明。
图1为本申请实施例提供的视场确定方法、视场确定装置、视场确定系统和介质的应用场景。
如图1所示,用户确定拍摄的期望视场后,相关技术可以通过控制无人机的云台、相机的焦距等以将相机的视场调整至用户的期望视场。然而,在一些场景下,相关技术无法满足用户的拍摄需求。例如,当用户的期望视场超过相机的当前最大视场时,通常只能控制无人机远离待拍摄对象以获得更大的视场,然而,受到空间限制,该方法可能无法适用。又例如,当用户的期望视场中包括不希望出现的遮挡物(参考图1的中间位置的树),相关技术中可以控制无人机飞到遮挡物前方进行拍摄,然而,这样会导致相机的视场与用户的期望视场不一致,造成拍摄的图像的构图发生改变,无法满足用户需求。又例如,受无人机、云台等的机械结构限制,导致相机不能实现360°转向,对于期望视场包括处于机械限角之外的视场的场景下,则无法满足用户的拍摄需求。又例如,用户希望拍摄多张图像,然后通过后期图像拼接处理的方式得到期望视场的场景下,需要用户根据自己的臆想拍摄位置,操作无人机飞至多个位置分别进行拍摄,然后,通过后期图像处理来得到用户期望的图像,然而,受如无人机可飞行时间限制、臆测的拍摄位置的合适度等影响,一旦期间发生拍摄过程中断,则可能导致需要用户重新进行整个拍摄过程,甚至无法完成拍摄过程。
本申请实施例提供的视场确定方法、视场确定装置、视场确定系统和介 质,根据辅助视场中确定的基点,来确定期望视场,以便获得与期望视场相吻合的图像。也即,通过基点的选取,可以任意规划期望视场的大小以及覆盖的视场范围,使得最终获取的图像的大小以及覆盖的视场范围完全与期望视场一致,避免了不期望的画面内容的摄入,也避免了后期复杂的剪辑工作,能够让用户感受即拍即得的图像拍摄体验。具体地,可以由用户从辅助视场中确定至少一个基点,使得可以自动基于该至少一个基点确定用户的期望视场,其中,辅助视场中各区域以及基点和镜头的位姿(可以包括位置信息和姿态信息,其中,位置信息可以是坐标信息,姿态信息可以是角度信息等)之间存在对应关系,使得当确定了用户的期望视场后,可以将该期望视场转为拍照序列信息(可以包括镜头的位姿信息),这样就使得无人机和云台等可以基于该位姿信息控制镜头的位姿,以便于按照该拍照序列信息进行拍照。例如,当用户的期望视场超过相机的当前最大视场时,且受空间限制而无法通过远离待拍摄对象来获得更大的视场时,可以将期望视场划分为多个子视场,然后由无人机和云台自动调整相机的位姿以分别采集与各子视场对应的图像,便于合成针对该期望视场的图像。又例如,当期望视场中存在遮挡物时,则可以由用户从辅助视场中确定至少一个基点,使得可以自动基于该至少一个基点确定不包括遮挡物的期望视场,进而通过拍摄、图像处理等手段获取针对该期望视场的图像。又例如,用户在从辅助视场中确定至少一个基点之后,则可以由飞控或无人机等自动确定出用户的期望视场,并基于上述位姿信息进行拍摄,期间无需用户控制无人机逐一到达用户臆测的位置进行拍摄,有效降低拍摄难度,并且有助于提升拍摄效果。
图2为本申请另一实施例提供的视场确定方法、视场确定装置、视场确定系统和介质的应用场景。如图2所示,以搭载在可移动平台10上的图像捕捉装置14为例进行说明。
图2中可移动平台10包括本体11、承载体13及图像捕捉装置14。尽管可移动平台10被描述为飞行器,然而这样的描述并不是限制,前述描述的任何类型的可移动平台都适用(如无人飞行器)。在某些实施例中,图像捕捉装置14可以直接位于可移动平台10上,而不需要承载体13。可移动平台10可以包括动力机构15,传感系统12。此外,该可移动平台10还可以包括通讯系统。
动力机构15可以包括一个或者多个旋转体、螺旋桨、桨叶、引擎、电机、轮子、轴承、磁铁、喷嘴。例如,动力机构的旋转体可以是自紧固(self-tightening)旋转体、旋转体组件、或者其它的旋转体动力单元。可移动平台可以有一个或者两个、两个或者多个、三个或者多个、或者四个或者多个动力机构。所有的动力机构可以是相同的类型。可选地,一个或者多个动力机构可以是不同的类型。动力机构15可以通过合适的手段安装在可移动平台上,如通过支撑元件(如驱动轴)。动力机构15可以安装在可移动平台10任何合适的位置,如顶端、下端、前端、后端、侧面或者其中的任意结合。
在某些实施例中,动力机构15能够使可移动平台10垂直地从表面起飞,或者垂直地降落在表面上,而不需要可移动平台10任何水平运动(如不需要在跑道上滑行)。可选地,动力机构15可以允许可移动平台10在空中预设位置及/或者方向盘旋。一个或者多个动力机构100在受到控制时可以独立于其它的动力机构。可选地,一个或者多个动力机构100可以同时受到控制。例如,可移动平台10可以有多个水平方向的旋转体,以控制可移动平台10的提升及/或推动。水平方向的旋转体可以被致动以提供可移动平台10垂直起飞、垂直降落、盘旋的能力。在某些实施例中,水平方向的旋转体中的一个或者多个可以顺时针方向旋转,而水平方向的旋转体中的其它一个或者多个可以逆时针方向旋转。例如,顺时针旋转的旋转体与逆时针旋转的旋转体的数量一样。每一个水平方向的旋转体的旋转速率可以独立变化,以实现每个旋转体导致的提升及/或推动操作,从而调整可移动平台10的空间方位、速度及/或加速度(如相对于多达三个自由度的旋转及平移)。
传感系统12可以包括一个或者多个传感器,以感测可移动平台10的周边障碍物、空间方位、速度及/或加速度(如相对于多达三个自由度的旋转及平移)。一个或者多个传感器包括前述描述的任何传感器,包括但不限于测距传感器、GPS传感器、运动传感器、惯性传感器或者影像传感器。传感系统12提供的感测数据可以用于控制可移动平台10的空间方位、速度及/或加速度。可选地,传感系统12可以用于可移动平台10的环境的数据,如气候条件、周边障碍物距离、地理特征的位置、人造结构的位置等。
承载体13可以是多种支撑结构,包括但不限于:固定支架、可拆卸支架、姿态可调结构等,用于将图像捕捉装置14设置在本体11上。例如,承载体 13可以是云台,图像捕捉装置14可以是拍摄装置,该云台允许拍摄装置相对于本体11发生位移,或者,沿着一个或多个轴转动,如承载体13允许拍摄装置沿着俯仰轴、航向轴和横滚轴中一个轴或多个轴的结合平移运动。又例如,承载体13可以允许拍摄装置围绕俯仰轴、航向轴和横滚轴中的一个或多个轴转动。其中承载体13和本体11之间可以具有联动换算关系,如本体11发生的第一运动(如移动或转动)可以换算成承载体13发生的第二运动。反之亦然。
通讯系统能够实现可移动平台10与具有通讯系统的控制终端20通过天线22收发的无线信号30进行通讯,天线22设置在本体21上。通讯系统可以包括任何数量的用于无线通讯的发送器、接收器、及/或收发器。通讯可以是单向通讯,这样数据可以从一个方向发送。例如,单向通讯可以包括,只有可移动平台10传送数据给控制终端20,或者反之亦然。通讯系统的一个或者多个发送器可以发送数据给通讯系统的一个或者多个接收器,反之亦然。可选地,通讯可以是双向通讯,这样,数据可以在可移动平台10与控制终端20之间在两个方向传输。双向通讯包括通讯系统的一个或者多个发送器可以发送数据给通讯系统的一个或者多个接收器,及反之亦然。
在某些实施例中,控制终端20可以向可移动平台10、承载体13及图像捕捉装置14中的一个或者多个提供控制指令,并且从可移动平台10、承载体13及图像捕捉装置14中的一个或者多个中接收信息(如障碍物、可移动平台10、承载体13或者图像捕捉装置14的位置及/或运动信息,负载感测的数据,如拍摄装置捕获的影像数据)。在某些实施例中,控制终端20的控制数据可以包括关于位置、运动、制动的指令,或者对可移动平台10、承载体13及/或图像捕捉装置14的控制。例如,控制数据可以导致可移动平台10位置及/或方向的改变(如通过控制动力机构15),或者导致承载体13相对于可移动平台10的运动(如通过对承载体13的控制)。控制终端20的控制数据可以导致负载控制,如控制拍摄装置或者其它影像捕获设备的操作(捕获静止或者运动的影像、变焦、开启或关闭、切换成像模式、改变影像分辨率、改变焦距、改变景深、改变曝光时间、改变可视角度或者视场)。在某些实施例中,可移动平台10、承载体13及/或图像捕捉装置14的通讯可以包括一个或者多个传感器(如距离传感器12或者图像捕捉装置14的图像传感器)发 出的信息。通讯可以包括从一个或者多个不同类型的传感器(如GPS传感器、运动传感器、惯性传感器、近程传感器或者影像传感器)传送的感应信息。感应信息是关于可移动平台10、承载体13及/或图像捕捉装置14的位置(如方向、位置)、运动、或者加速度。从图像捕捉装置14传送的感应信息包括图像捕捉装置14捕获的数据或者图像捕捉装置14的状态。控制终端20传送提供的控制数据可以用于控制可移动平台10、承载体13或者图像捕捉装置14中一个或者多个的状态。可选地,承载体13及图像捕捉装置14中一个或多个可以包括通讯模块,用于与控制终端20通讯,以便控制终端20可以单独地通讯或者控制可移动平台10、承载体13及图像捕捉装置14。其中,控制终端20可以为可移动平台10的遥控器,也可以为诸如手机、iPad、可穿戴电子设备等能够用于控制可移动平台10的智能电子设备。
需要说明的是,控制终端20可以远离可移动平台10,以实现对可移动平台10的远程控制,可以固定或可拆卸地设于可移动平台10上,具体可以根据需要设置。
在某些实施例中,可移动平台10可以与除了控制终端20之外的其它远程设备,或者非控制终端20的远程设备通讯。控制终端20也可以与另外一个远程设备及可移动平台10进行通讯。例如,可移动平台10及/或控制终端20可以与另一个可移动平台或者另一个可移动平台的承载体或负载通讯。当有需要的时候,另外的远程设备可以是第二终端或者其它计算设备(如计算机、桌上型电脑、平板电脑、智能手机、或者其它移动设备)。该远程设备可以向可移动平台10传送数据,从可移动平台10接收数据,传送数据给控制终端20,及/或从控制终端20接收数据。可选地,该远程设备可以连接到因特网或者其它电信网络,以使从可移动平台10及/或控制终端20接收的数据上传到网站或者服务器上。
需要说明的是,可移动平台10还可以是陆地机器人、无人车、手持云台等,在此不做限定。
图3为本申请实施例提供的视场确定方法的流程示意图。如图3所示,该视场确定方法可以包括操作S301~操作S305。
在操作S301,获取第一用户指令。
在本实施例中,第一用户指令可以是基于用户在控制终端上输入的用户 操作确定的。例如,控制终端上设置有按键、拨杆等部件,用户可以通过操作这些部件输入第一用户指令。又例如,控制终端上可以包括显示屏,用户可以通过显示屏上显示的交互组件(如虚拟的按键、摇杆等)来输入第一用户指令。
在操作S303,响应于第一用户指令,从辅助视场内确定至少一个基点。
其中,辅助视场可以是由用户确定。例如,用户希望拍摄前方高楼的全景图,则可以控制无人机飞行至能拍摄到高楼的左上角图像的位置,将当前位置的相机视场作为一个辅助视场。然后,还可以控制无人机飞行至能拍摄高楼的右下角图像的位置,将当前位置的相机视场作为另一个辅助视场。此外,还可以基于这两个辅助视场构建一个虚拟的辅助视场,该虚拟的辅助视场中可以包括用户的期望视场,以便用户从辅助视场中确定期望视场。
例如,第一用户操作所针对的对象可以是与可移动平台通信连接的控制终端。例如,用户在控制终端上输入以下至少一种信息:选取信息、基点坐标输入信息、指定操作(如拍照)、对象以及该指定操作的参数(如焦距、光圈、曝光时长)等。其中,控制终端可以是一体式的,如遥控器上设置有处理器、存储器、显示屏等。控制终端可以是分体式的,如遥控器可以和其它电子设备共同构成控制终端,如遥控器和智能手机互连后共同构成控制终端。其中,智能手机上可以安装有应用(APP),该APP上可以输入操作指令、设置操作参数等。
进一步地,指定状态指令还可以基于手势识别、姿势识别、体感或语音识别等方式确定并输入。例如,用户可以通过倾斜控制终端,以控制可移动平台的位置、姿态、方向、或者其它方面。控制终端的倾斜可以由一个或者多个惯性传感器所侦测,并产生对应的运动指令。再如,用户可以利用触控屏调整负载的操作参数(如变焦)、负载的姿态(通过承载体),或者可移动平台上的任何物体的其它方面。
此外,可移动平台还可以是手持式的承载体,控制终端还可以是设置在手持式的承载体上的电子设备。以手持云台为例进行说明,手持云台上可以设置相机和/或手机,指定状态指令可以通过手持云台的手柄上的按键或触控屏输入的。以上仅为指定状态指令输入的示例性举例。
在一个实施例中,响应于第一用户指令,从辅助视场内确定至少一个基 点可以包括如下操作。响应于第一用户指令,确定辅助视场;以及,确定辅助视场中的至少一个基点。
辅助视场可以是由用户操作可移动平台(如无人机)和/或云台来确定的,如用户手动操作使得镜头对准某个区域作为辅助视场,或基于多个对准区域确定的辅助视场。需要说明的是,辅助视场也可以是一个预设视场,如以相机的当前视场为基准向外扩散指定区域(如扩大1倍、1.5倍或沿某个方向向外延伸一定区域等),确定的辅助视场。对于可移动平台而言,可以响应于来自控制终端的控制指令调整可移动平台和/或云台的姿态,使得镜头对准某个区域作为辅助视场。例如,控制指令包括:向上飞行、向上飞行10米等,云台的俯仰角增大、俯仰角增大5度等。
在一个实施例中,辅助视场比用于采集图像的图像捕捉装置的当前视场大,这样便于用户获取大视场的图像。例如,可以通过变焦得到更大的辅助视场。其中,期望视场可以小于图像捕获装置的最小视场,也可以大于图像捕获装置的最大视场。
在一个实施例中,辅助视场大于或等于期望视场。例如,用户希望精确地拍摄到期望视场内的图像时,通过移动相机或焦距的方式确定取景框中景象时,该景象很难与用户的期望视场的景象保持完一致。此时,可以以一个比期望视场大的视场作为辅助视场以降低漏拍景象的风险,然后,从辅助视场中由用户通过选取基点的方式确定期望视场,便于后续直接基于基点确定的期望视场进行拍摄,得到与用户期望视场对应且保持一致的图像。
在一个实施例中,第一用户指令包括可移动平台的位置调整指令、姿态调整指令、焦距调整指令和镜头切换指令中至少一种。相应地,响应于第一用户指令,确定辅助视场可以包括:响应于第一用户指令,通过调整可移动平台的位置和/或姿态、调整焦距和切换镜头中的至少一种,将当前视场切换至辅助视场。需要说明的是,该第一用户指令还可以包括用于从辅助视场中确定基点的指令,如点击选取基点的指令、输入基点信息的指令等。
图4为本申请实施例提供的相机视场和辅助视场的示意图。
如图4所示,相机视场410小于辅助视场400,辅助视场可以是通过使得相机远离待拍摄对象、调整焦距、切换广角镜头等来实现。为了便于用户确定期望视场,可以将与辅助视场对应的图像展示在控制终端上。这样便于 用户基于辅助视场选取所需的期望视场。相机视场410的中心点可以与辅助视场400相重合或不重合。
图5为本申请另一实施例提供的相机视场和辅助视场的示意图。
如图5所示,相机视场510的尺寸可以与辅助视场500的尺寸相当。例如,用户通过控制云台转动来使得镜头对准图5中左上角的视场。或者,用户通过控制无人机运动来使得镜头对准图5中左上角的视场。或者,用户通过控制无人机移动以及控制云台转动来使得镜头对准图5中左上角的视场。右下角的辅助视场对准原理相似,在此不再赘述。
在一个实施例中,辅助视场包括至少两个子辅助视场。
图6为本申请另一实施例提供的相机视场和辅助视场的示意图。
如图6所示,辅助视场600可以包括多个子辅助视场610,其中,每个子辅助视场610可以对应于一个相机视场。需要说明的是,辅助视场600可以是基于多个子辅助视场610拼接而成的(如用户控制相机在某个姿态下静止时长超过时长阈值,或者在哪些姿态下被用户设定为子辅助视场)。辅助视场600还可以是基于至少两个子辅助视场所涵盖的区域,如图6中,左上子辅助视场的左上角的坐标,和右下子辅助视场的右下角的坐标所涵盖的矩形区域,这样有助于提升用户操作便捷度,如只需确定两个子辅助视场610即可确定辅助视场600。
例如,第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个。相应地,响应于第一用户指令,确定辅助视场可以包括如下操作。响应于第一用户指令,通过调整云台的位置和/或姿态、调整可移动平台的位置和/或姿态、调整焦距和切换镜头中至少一种,将当前视场分别依序切换到至少两个子辅助视场中的每一个,以确定至少两个子辅助视场。然后,从各子辅助视场中分别确定至少一个基点。
在确定辅助视场之后,就可以由用户从辅助视场中确定基点,该基点可以表征期望视场的边界信息。例如,用户通过点击某个点或输入坐标等方式确定基点。此外,也可以是基于预设规则从辅助视场中确定基点,如基点为辅助视场顶点、中心点、边中点等,或者如子辅助视场中任意一点或多点。
在操作S305,基于至少一个基点确定期望视场,以得到与期望视场相吻 合的图像。
在本实施例中,可以自动基于基点确定期望视场。在一个实施例中,基于至少一个基点确定期望视场可以包括如下操作:基于至少一个基点确定图像采集视场,图像采集视场覆盖的图像采集区域包括期望视场覆盖的图像采集区域,以便获取与期望视场相吻合的图像。
例如,当仅存在一个基点时,则可以确定需要基于该基点为中心或顶点,按照预设规则(如指定半径、指定尺寸等)确定期望视场。又例如,当存在两个基点时,则可以基于基点的坐标确定所涵盖的矩形区域作为期望视场。又例如,当存在三个或更多个基点时,则可以将相邻的两个基点相连,形成一个期望视场,此外,还可以根据用户设定信息将期望视场分为多个子期望视场。其中,期望视场大于用于采集图像的图像捕捉装置的最小视场,图像捕捉装置包括镜头。
本申请实施例的视场确定方法,可以满足用户对任意大小、任意视场覆盖范围的场景的拍摄需求。同时,可以有效简化用户拍摄多张照片合成一张全景图时的拍摄步骤,减少后期编辑处理时间,提高用户体验度。此外,降低航拍机受拍摄现场三维空间层面的制约条件。
以下对确定子辅助视场、辅助视场、基点和期望视场为例进行示例性说明。
在一个实施例中,确定辅助视场中至少一个基点可以包括如下操作。首先,获取第三用户指令,然后,响应于第三用户指令在辅助视场中确定至少一个基点。第三用户指令的确定方式可以参考第一用户指令,在此不再赘述。
此外,为了便于用户从辅助视场中选取基点,该方法还可以包括如下操作。在获取第三用户指令之前,输出与辅助视场对应的图像。相应地,获取第三用户指令包括:在输出辅助视场对应的图像的过程中,获取针对与辅助视场对应的图像的用户操作,基于用户操作确定第三用户指令。
例如,以无人机航拍为例,该方法应用于控制终端,图像捕捉装置设于可移动平台,控制终端用于控制可移动平台,且控制终端能够获取通过图像捕捉装置采集的图像信息;相应地,上述方法还包括:在获取第三用户指令之前,控制终端获取与辅助视场对应的图像信息;控制终端展示与辅助视场对应的图像信息。相应地,获取第三用户指令包括:控制终端在展示与辅助 视场对应的图像信息的过程中,获取针对与辅助视场对应的图像信息的用户操作,基于用户操作确定第三用户指令。
图7为本申请实施例提供的辅助视场、基点和期望视场的示意图。
如图7所示,相机视场710是镜头处于某个位姿时的视场,如当前位姿或用户调整无人机和/或云台的位姿后,使得相机处于某个位姿。辅助视场730是由用户设定或预设的,如用户通过改变相机的焦距,或者切换广角镜头,或者使相机远离待拍摄对象,使得视场变大以得到辅助视场730,并将视场内图像发送给控制终端进行展示。用户在辅助视场730中选定中心点作为基点720。其中,为了保证能完全覆盖期望视场700,该辅助视场730可以大于期望视场700。
在一个实施例中,确定辅助视场中至少一个基点可以包括如下操作,基于第二视场预设位置在辅助视场中确定至少一个基点。相应地,第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
参考图7所示,当确定了辅助视场730之后,如果用户预先设置了将中心点作为基点,则无需用户再通过点击等操作确定基点,而是会自动将辅助视场730的中心点作为基点720。其中,预设规则例如可以是:当待拍摄对象与相机之间的距离小于第一距离阈值时,则使用靠近待拍摄对象的一个顶点或边中点作为基点。当待拍摄对象与相机之间的距离大于或第一距离阈值时,则使用辅助视场730的中心点或指定位置点作为基点。
在一个实施例中,如果辅助视场包括多个子辅助视场,则针对各子辅助视场,从各子辅助视场中分别确定至少一个基点可以包括如下操作,首先,获取第二用户指令。然后,响应于第二用户指令在子辅助视场中确定至少一个基点。其中,第二用户指令可以是针对交互组件、机械按钮等的点击、滑动、按压等用户操作而产生的用户指令。此外,也可以是基于预设规则自动从辅助视场中确定的。第二用户指令的确定方式可以参考第一用户指令,在此不再赘述。
例如,从各子辅助视场中分别确定至少一个基点可以包括:基于第一视场预设位置在各子辅助视场中分别确定至少一个基点。
在一个实施例中,第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
图8为本申请另一实施例提供的辅助视场、基点和期望视场的示意图。
如图8所示,辅助视场830中包括多个子辅助视场810,用户可以从各子辅助视场810中分别确定至少一个基点,或者基于预设位置确定多个基点。例如,当包括两个子辅助视场810时,则预设位置可以是两个子辅助视场810之间相距最近的点,如左上角的子辅助视场810的基点821为右下角顶点,右下角的子辅助视场810的基点822为左上角顶点。在其他实施例中,预设位置还可以为子辅助视场810的中心点、边中点、指定位置点等。需要说明的是,一个子辅助视场810可以包括两个或更多个基点。在确定基点之后,就可以基于基点的坐标确定用户的期望视场800。
图9为本申请另一实施例提供的辅助视场、基点和期望视场的示意图。
如图9所示,辅助视场中包括至少四个子辅助视场910,用户可以从各子辅助视场910中分别确定至少一个基点921、922、923、924,或者基于预设位置确定多个基点921、922、923、924,如采用各子辅助视场910的中心点作为基点。然后将相邻的基点进行连接,这样就可以实现基于基点的坐标确定用户的期望视场900。在其他实施例中,预设位置还可以为子辅助视场910的中心点、边中点、指定位置点等。一个子辅助视场910可以包括两个或更多个基点。
在另一个实施例中,第一用户指令包括基点设置信息。相应地,响应于第一用户指令,从辅助视场内确定至少一个基点可以包括:基于基点设置信息从辅助视场内确定至少一个基点。例如,基点设置信息包括方向信息、角度值信息、坐标信息或参考点中至少一种。
图10为本申请实施例提供的设置基点设置信息的示意图。
如图10所示,图10的左边为信息设置区域,右边为展示区域。
X值和Y值可以为用户希望设置的坐标信息,如(2,2)表示以(0,0)点为基准点的(2,2)处为基点。此外,也可以替换为方向信息和角度信息,如(左上,45°)表示以(0,0)点为基准点的(左上,45°)射线的交点处为基点。此外,也可以是参考点供用户选择,如中心点、某个顶点等。需要说明的是,显示界面中可以展示多种设置方式以便于用户选择。
在一个实施例中,该方法还可以包括如下操作。基于至少一个基点对获取的图像进行裁剪,得到与期望视场相吻合的图像。由于使用无人机、云台 等控制相机进行拍照时,很难保证拍摄的图像的边界与期望视场的边界完全吻合,同时为了提供冗余度,在进行拍摄时,可以使得实际取景的边界略大于期望实际的区域。例如,实际取景的边界可以近似于辅助视场的边界,或者,实际取景的边界可以小于辅助视场的边界并且大于期望视场的边界。这样便于得到与实际取景相对应的图像,该与实际取景相对应的图像中可以包括与期望视场相吻合的图像。用户可以获取该与实际取景相对应的图像,以便于后续自行对该图像进行图像处理、分享等。
此外,为了得到与用户期望视场相吻合的图像,可以由图像捕捉装置自动对图像进行图像处理(如首先进行图像融合,然后根据期望视场对图像进行裁剪)。
需要说明的是,对图像进行处理包括但不限于:进行图像合成、进行图像风格(如海滩风格、复古风格、大头风格等)处理、进行图像旋转处理、进行图像裁剪处理等中至少一种。
例如,基于至少一个基点对获取的图像进行裁剪,得到与期望视场相吻合的图像可以包括如下操作。首先,获取与图像采集视场对应的初始图像。然后,对初始图像进行剪裁,得到与期望视场相吻合的图像。对图像进行剪裁的方法可以采用相关技术中多种技术,在此不做限定。
例如,为了使得剪裁后的图像与用户的期望视场相吻合,而用户的期望视场是基于基点确定的,该基点是已知信息,则可以基于该基点对图像进行剪裁。具体地,对初始图像进行剪裁,得到与期望视场相吻合的图像可以包括:基于至少一个基点对初始图像进行剪裁,得到与期望视场相吻合的图像。
例如,对于通过两个基点确定期望视场时,位于左上方的基点1的坐标为(X1,Y1),位于右下方的基点2的坐标为(X2,Y2),则在进行剪裁时,先将基点映射至合成后的图像上,得到坐标1(X1’,Y1’)和坐标2(X2’,Y2’),然后将图像中坐标小于X1’的列全部删除,将图像中坐标大于Y1’的行全部删除,将图像中坐标大于X2’的列全部删除,将图像中坐标小于Y2’的行全部删除。
在一些实施例中,确定了期望视场后,也可以直接根据期望视场进行拍摄,即沿着期望视场的边界进行拍摄轨迹的规划,使得每一次成像均在期望视场内,而未包括期望视场以外的区域,图传采集视场对应的初始图像即为 期望视场所吻合的图像。如此,在得到与期望视场相吻合的图像时,可以不对初始图像进行裁剪。
图11为本申请实施例提供的对初始图像进行裁剪的示意图。
如图11所示,外圈虚线是图像采集视场对应的图像,该图像采集视场包括由多个基点构成的期望视场(内圈虚线所示)。其中,为了保证不会漏拍图像以及提升冗余度等,图像采集视场的区域大于期望视场的区域。在得到了与图像采集视场对应的图像后,可以基于上述基点对图像进行裁剪,得到与用户的期望视场吻合的图像。
在一个实施例中,获取与图像采集视场对应的初始图像可以包括如下操作。首先,基于预设视场对图像采集视场进行分解,得到多个子采集视场。然后,控制图像捕捉装置在多个子采集视场下分别进行图像采集,得到多个子图像。接着,基于多个子图像合成与图像采集视场对应的初始图像。
其中,基于预设视场对图像采集视场进行分解,得到多个采集视场可以包括:首先,确定与图像采集视场对应的第一图像采集区域,并且确定与预设视场对应的第二图像采集区域。然后,至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域。其中,第二图像采集区域可以指定焦距下的图像采集区域,例如,用户如果希望得到清晰度高的图像,则可以选取长焦距,以得到清晰度高的图像,然后再合成清晰度高的图像。又例如,用户希望快速完成拍摄,则可以选择短焦距(视场更大),以减少拍摄的张数,提升拍摄速度。
相应地,控制图像捕捉装置在多个采集视场下分别进行图像采集,得到多个子图像可以包括:控制图像捕捉装置分别采集与多个子图像采集区域对应的多个子图像。其中,每个子图像采集区域可以分别对应一个位姿信息和拍摄信息。位姿信息可以是如无人机和/或云台的位置信息,以及无人机、云台和相机中至少一种的姿态信息。拍摄信息可以包括如焦距信息、曝光时长、感光度信息等。这样就与可以实现驱动相机分别采集各子图像采集区域的子图像。
在一个实施例中,为了降低发生漏拍的问题,至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域包括:基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图 像采集区域。
例如,区域重叠比例是基于用户操作或预设重叠比例来确定的。其中,各子图像采集区域之间的区域重叠比例可以相同或不同。如合焦点多的区域的区域重叠比例可以更高。区域重叠比例可以分解为水平向重叠比例和竖直向重叠比例。
在一个实施例中,为了便于实现对第一图像采集区域进行分解,上述基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图像采集区域可以包括如下操作。
首先,基于第二图像采集区域的长度、第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数。
然后,基于基于第二图像采集区域的宽度、第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数。
接着,基于第一个数和第二个数确定子图像采集区域的个数,以对第一图像采集区域进行分解。
通过以上方式即可确定需要拍摄多少张图像,以便于对这些图像进行融合后可以得到与期望视场相吻合的图像。
图12为本申请实施例提供的将期望视场分解为多个子采集视场的示意图。
如图12所示,基于子采集视场的尺寸和期望视场1200的尺寸可以确定需要将采集视场1200划分为3*3共9个子采集视场1210。此外,为了降低发生漏拍图像的风险,需要设置各相邻的子图像采集区域1210之间存在一定的重叠比例。此外,需要涵盖期望视场1200之外的区域。
在一个具体实施例中,首先,可以在控制终端的显示屏上显示二维坐标图系,以相机当前FOV视角中心点为二维坐标系的原点,沿着纵向和横向分出x和y轴,并标定尺寸。
然后,用户操控无人机使得相机视场移动,参考图8所示,在左上角的子辅助视场810中任意处选定一个基点821,此时程序记录第一个基点的坐标系值(x1,y1)。
接着,用户操控无人机使得相机视场移动,参考图8所示,在右下角的子辅助视场810中任意处选定一个基点822,此时程序记录第二个基点的坐 标系值(x2,y2)。
然后,内置程序通过两个基点的坐标计算出用户期望视角的长和宽,结合子采集视场(如相机在指定焦距下的视场的长和宽,计算出要拍摄的样张(此外,可以设定子采集视场的重叠比例,如基于重叠50%为估量)。
以下对确定子采集视场之后,图像采集过程进行示例性说明。
在一个实施例中,多个子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。这样便于基于拍摄位姿信息分别针对各子图像采集区域进行图像采集。其中,拍摄位姿信息可以是通过计算确定。例如,可以是基于无人机的机身与云台联动换算来确定的。
具体地,拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各子图像采集区域下进行图像采集。
例如,拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。其中,该拍摄位姿信息可以是由无人机、云台和相机中至少一种的位姿信息构成的。可选地,拍摄位姿信息可以包括:俯仰角信息和/或偏航角信息。
在一个实施例中,当图像捕捉装置设置在云台上,并且云台设置在可移动平台上时,其中:俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种,并且/或者,偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。这样可以实现通过调整云台和/或机身的位姿使得镜头对准某个子图像采集区域。需要说明的是,子图像采集区域和子采集视场之间存在对应关系,子采集视场可以是镜头的实际视场,子图像采集区域可以是控制终端上显示的图像采集区域。
为了提升拍摄速度,在需要调整位姿时,可以优先调整速度快的部件。如果调整速度比较接近,则可以优先调整能耗低的部件。例如,俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级,并且/或者,偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。
此外,拍摄位姿信息还可以包括:位置信息。该位置信息可以是由无人机和/或云台的位置信息确定的。该位置信息可以包括:水平位置、高度中至 少一种,例如,可以通过世界坐标系中的X值、Y值和Z值表达。
具体地,拍摄位姿信息还可以包括:位置信息,位置信息可以包括高度信息,该高度信息可以表征可移动平台在铅垂方向上的位移信息,图像捕捉装置设于可移动平台上。例如,镜头的当前高度是2米,与子采集视场对应的镜头的高度是3米,则可以控制无人机上升1米,或者通过控制云台向上转动一定角度,或者二者的结合,以使得镜头对准该子采集视场。此外,该位置信息还可以包括水平位置。
在一个实施例中,当图像捕捉装置设置在云台上,并且云台设置在可移动平台上时,在获取与期望视场相吻合的图像的过程中,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。其中,悬停状态是指无人机的高度和水平位置基本不发生变化,或者仅存在允许范围内的小幅度改变,但是在悬停状态下,无人机的姿态可以发生改变,位于无人机上的云台的姿态也可以独自改变或者和无人机的姿态同时发生改变。
图13为本申请实施例提供的分别对多个子采集视场的图像进行采集的示意图。
如图13所示,相机1320需要对6个子采集视场1310分别进行图像采集。其中,处于同一高度的两个子采集视场1310可以通过调整云台和/或无人机的偏航角信息来分别进行对准,以便进行图像采集。然而,某些场景下,如受云台的机械角度限制,不便通过调整云台的俯仰角来对准不同高度的子采集视场,此时,本申请实施例可以通过调整无人机的高度和/或云台的姿态来分别对准各子采集视场,以便进行图像采集。
以下对基点的坐标的计算方式进行示例性说明。
以具有云台的无人机为例,对于无人机位置不变的场景,单纯转动飞机朝向和云台朝向,偏移点以偏移角度为坐标系,可以表示为:(X,Y)=(无人机水平方向偏角度+云台水平方向偏移角度,云台俯仰方向偏移角度)
对于无人机位置改变的场景(如偏移和/或升降),则需要耦合朝向与位置的偏移。双坐标系耦合,基点对应有矩阵数据。
例如,该矩阵可以表示为:[无人机水平偏移量,无人机高度偏移量;无人机水平方向偏移角度+云台水平方向偏移角度,云台俯仰方向偏移角度]。
在一个实施例中,可以通过以下方式对针对各子采集视场采集的图像进 行图像处理。例如,基于多个子图像合成与图像采集视场对应的初始图像可以包括:基于羽化方式对多个子图像进行合成,得到与图像采集视场对应的初始图像。其中,羽化是令选取的区域内外衔接部分虚化,起到渐变的作用从而达到自然衔接的效果。
为了在不明显降低图像合成质量的基础上,提升图像处理效率,不同的图像融合区域进行融合过程中消耗的运算资源不同。例如,对于图像中天空、远处的山体等区域可以分配较少的运算资源,对于用户感兴趣的对象(如人物、标志性建筑、动物)等可以分配较多的运算资源。
图14为本申请实施例提供的对图像进行融合的示意图。
如图14所示,是分别针对两个子采集视场进行图像采集后,得到的两张子图像,将其进行拼接后,得到了与期望视场相吻合的图像。其中,为了对准这两个子采集视场,可以通过移动可移动平台、转动可移动平台或者转动云台中至少一种来实现。
图15为现有技术提供的高楼的全景图像。
如图15所示,为一幢大厦的图像,相关技术中由于大厦的高度较高,很难获得针对该大厦的单纯构图的图像。例如,用户可以采用广角镜头进行拍摄,但是由于位于地面,导致大厦顶部的图像的形变比较严重,且会包括过多的非大厦图像。如果采用航拍,则受限于机械角度等,只能由用户臆测多个拍摄点分多次进行拍摄,然后通过PS等图像处理得到该大厦的全景图,但是,无人机的电量有限,如果用户操作不够熟练或过程中被打断,则完成整体拍摄的难度较高。
图16为本申请实施例提供的针对图15所示的高楼的图像融合过程示意图。
如图16所示,本申请实施例在用户基于构图,将辅助视场中大厦的多个端点(如顶部点和底部点如图16的左边图的两个黑色点所示)设置为基点后,就可以自动生成用户的期望视场,然后基于用户期望的焦距等对期望视场进行划分,得到多个子采集视场,基于机身和云台联动转换算法自动确定拍摄位姿信息,以对各子采集视场的图像分别进行采集,得到如图16的中间三幅图所示。然后可以基于这中间三幅图合成全景图。接着可以自动基于基点对全景图进行裁剪,得到如图16的右边图所示的与期望视场相吻合的大厦图像。
在一个实施例中,为了便于用户查看与期望视场对应的图像,该方法还可以包括如下操作:在获取与期望视场相吻合的图像之后,输出与期望视场相吻合的图像。例如,合成图像的操作可以是在控制终端上实现的,则可以通过控制终端的显示器进行显示。例如,合成图像的操作可以是在无人机上实现的,则可以由无人机将合成的图像发送给控制终端或与无人机通信连接的其它终端设备上,以便于用户进行查看。
在一个实施例中,第一用户指令与预设模式之间存在第一映射关系。相应地,上述方法还可以包括:在获取第一用户指令之后,响应于第一用户指令,进入预设模式。这样可以进一步提升用户获取与期望视场对应的图像的便捷度。其中,进入预设模式可以指可移动平台及云台进入指定状态,或经由控制终端进入预设模式,而使得可移动平台及云台进入指定状态。
其中,用于采集图像的图像捕捉装置设置在云台上,并且云台设置在可移动平台上。相应地,在预设模式下,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且云台处于锁定状态或者可绕至少一个轴中的至少一种转动。其中,轴可以包括:航向轴、俯仰轴和横滚轴中至少一种。
在一个实施例中,可移动平台和云台等进入指定状态后需要一定的时长以达到稳定状态。可以在获取到第一用户指令指定时长之后,再开始执行拍摄过程。
在一个实施例中,用于采集图像的图像捕捉装置设置在云台上,并且云台设置在可移动平台上。
相应地,在预设模式下,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
在一个具体实施例中,控制终端的应用(APP)上有预设模式(如包括常规模式和非常规模式),操作与该预设模式对应的交互组件(如点击自动模式按钮)后进入预设模式。其中,模式的3A参数(可设置自动或手动、曝光参数等)以及存储方式(如存储在无人机的存储卡中或发送至控制终端进行存储)等。
针对常规模式,无人机可以进入悬停锁高慢速转动,机身只能缓慢转动 航向轴(YAW,即水平转向轴)及转动云台。
接着,APP提供二维打点示意图给到用户,用户通过遥控器控制机身转YAW与云台,投射至二维坐标图进行节点设置,至少需要确定1个基点。以两个基点为例,控制终端取离坐标轴中心最远的四象位偏移,绘制出构图四边形,明确要移动拍摄的样张(以重叠50%为估量,基于四边形与镜头FOV可换算)。
然后,APP提示要拍摄样张数与时间,用户点击确定后,无人机开始运转。
接着,拍摄完成后相机模块识别拍摄的多张图片,通过识别图像的接缝线(寻照接缝线方法:逐点法,动态规划dp法和图割法等),拼接图像后将多张照片合成一张最终全景图。这样就可以将该全景图输出给用户。
针对非常规模式,控制终端的应用(APP)上有针对非常规模式的交互组件,操作与该非常规模式对应的交互组件(如点击自动模式按钮)后进入非常规模式。其中,模式的3A参数(可设置自动或手动、曝光参数等)以及存储方式(如存储在无人机的存储卡中或发送至控制终端进行存储)等。
在非常规模式下,用户可以自由设置可移动方式,如纵向和/或横向,云台是否需要被锁定(为了保证无人机、云台和图像捕捉装置的安全性,需要具有机身与云台存在联动换算方案)。
接着,APP提供二维打点示意图给到用户,用户通过遥控器控制机身转YAW与云台,投射至二维坐标图进行节点设置,至少需要确定1个基点(基点上可以备注云台角度和无人机转向等信息)。以两个基点为例,控制终端取离坐标轴中心最远的四象位偏移,绘制出构图四边形,明确要移动拍摄的样张(以重叠50%为估量,基于四边形与镜头FOV可换算)。
然后,APP提示要拍摄样张数与时间,用户点击确定后,无人机开始运转。
接着,拍摄完成后相机模块识别拍摄的多张图片,通过识别图像的接缝线(寻照接缝线方法:逐点法,动态规划dp法和图割法等),拼接图像后将多张照片合成一张最终全景图。这样就可以将该全景图输出给用户。
本申请实施例给用户提供多种模式共用户自行选择,使得用户可以根据自身需求和无人机操作水平选取适合自身的模式。
以下以无人机及其控制终端为例,对上述各操作的执行主体进行示例性说明。
第一用户指令可以是基于由用户在控制终端上输入的用户操作确定的。
从辅助视场内确定至少一个基点可以是由控制终端执行的。
基于至少一个基点确定期望视场可以是由控制终端执行的。
确定辅助视场中的至少一个基点可以是由控制终端执行的。
无人机机身与云台联动换算可以是由图像捕捉装置、控制终端或云台中至少一种执行的。
图像合成和图像处理(如裁剪)可以是由图像捕捉装置执行的。
需要说明的是,上述各操作的执行主体仅为示例性说明,不能理解为对本申请的限定,可以由可移动平台、控制终端、图像捕捉装置、云台其中的一个独立完成,或其中的几个配合完成。例如,对于可移动平台是陆地机器人的情形下,可以在陆地机器人上设置人机交互模块(如包括用于显示人机交互界面的显示器等),用户可以直接在可移动平台展示的交互界面上获取用户操作,以生成用户指令、确定辅助视场、确定基点、确定期望视场等。其中,独立完成包括主动或被动地、直接或间接地从其它设备获取相应数据以执行相应操作
本申请实施例提供的视场确定方法,可以满足用户在多种复杂场景下对任意大小、任意视场范围的场景的拍摄需求,使得拍摄的图像的构图与用户期望的构图更加一致。此外,该方法可以有效简化用户拍摄多张照片后,合成一张全景图时拍摄步骤,减少后期编辑处理时间,提高用户体验度,如用户在设定好基点后,无需其它过多操作,就可以得到与该用户的期望视场相吻合的图像。此外,该方法可以有效提升航拍设备差异化竞争力,满足用户的多场景需求。此外,由于可以将一个大视场分解为多个小视场分别进行拍摄,基于机身和云台的联动算法,可以有效降低诸如航拍机受拍摄现场三维空间层面的制约条件。
需要说明的是,在实际应用中,上述方法还可以应用于除图像捕捉装置等以外的负载的感测范围的确定,以通过基点的选择,任意规划负载的感测范围,并得到与期望的感测范围对应的感测数据。其中,负载包括但不限于音频获取装置、测距装置等。
图17为本申请实施例提供的视场确定装置的结构示意图。
如图17所示,该视场确定装置1600可以包括一个或多个处理器1610,该一个或多个处理器1610可以集成在一个处理单元中,也可以分别设置在多个处理单元中。计算机可读存储介质1620,用于存储一个或多个计算机程序1621,计算机程序在被处理器执行时,实现如上的视场确定方法,例如,获取第一用户指令;响应于第一用户指令,从辅助视场内确定至少一个基点;以及基于至少一个基点确定期望视场,以得到与期望视场相吻合的图像。
其中,该视场确定装置1600可以被设置在一个执行主体中或分别设置在多个执行主体中。例如,对于可以实现本地控制功能的陆地机器人等的场景中,该视场确定装置1600可以被设置在该陆地机器人中,如该陆地机器人上设置有云台,云台上可以设置相机,陆地机器人的机体上设置有显示屏以便于与用户进行交互。又例如,对于可以使用非本地控制终端对可移动平台进行控制的场景中,该视场确定装置1600的至少部分可以被设置在控制终端中,如接受用户操作的相关功能被设置在控制终端中。该视场确定装置1600的至少部分可以被设置在可移动平台中,如信息传输功能、环境信息感测功能和联动控制功能等中至少一种。此外,该视场确定装置1600的至少部分可以被设置在图像捕捉装置中,如图像合成功能、图像裁剪功能等。
例如,处理单元可以包括现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者一个或者多个ARM处理器。处理单元可以与非易失性计算机可读存储介质1620连接。与非易失性计算机可读存储介质1620可以存储由处理单元所执行的逻辑、代码及/或者计算机指令,用于执行一个或者多个步骤。非易失性计算机可读存储介质1620可以包括一个或者多个存储单元(可去除的介质或者外部存储器,如SD卡或者RAM)。在某些实施例中,传感器感测的数据可以直接传送并存储到非易失性计算机可读存储介质1620的存储单元中。非易失性计算机可读存储介质1620的存储单元可以存储由处理单元所执行的逻辑、代码及/或者计算机指令,以执行本案描述的各种方法的各个实施例。例如,处理单元可以用于执行指令,以导致处理单元的一个或者多个处理器执行上述描述的追踪功能。存储单元可以存储感测模块感测数据,该数据感测由处理单元所处理。在某些实施例中,非易失性计算机可读存储介质1620的存储单元可以存储处理单元产生的处理结果。
在某些实施例中,处理单元可以与控制模块连接,用以控制可移动平台的状态。例如,控制模块可以用于控制可移动平台的动力机构,以调整可移动平台相对于六个自由度的空间方位、速度及/或加速度。可选地或者相结合的,控制模块可以控制承载体,负载或者感测模块中的一个或者多个。
处理单元还可以与通讯模块连接,用以与一个或者多个外围设备(如终端、显示设备、或者其它远程控制设备)传送及/或者接收数据。这里可以利用任何合适的通讯方法,如有线通讯或者无线通讯。例如,通讯模块可以利用到一个或者多个局域网、广域网、红外线、无线电、Wi-Fi、点对点(P2P)网络、电信网络、云网络等。可选地,可以用到中继站,如信号塔、卫星、或者移动基站等。
上述各个部件之间可以是相互适配的。例如,一个或者多个部件位于可移动平台、承载体、负载、终端、感测系统、或者与前述各设备通讯的额外的外部设备上。在某些实施例中,处理单元及/或非易失性计算机可读介质中的一个或者多个可以位于不同的位置,如在可移动平台、承载体、负载、终端、感测系统、或者与前述各设备通讯的额外的外部设备以及前述的各种结合上。
此外,与可移动平台相适配的控制终端可以包括输入模块、处理单元、存储器、显示模块、以及通讯模块,所有这样的部件都是通过总线或者相似的网络相连接。
输入模块包括一个或者多个输入机制,以获取用户通过操作该输入模块产生的输入。输入机制包括一个或者多个操纵杆、开关、旋钮、滑动开关、按钮、拨号盘、触摸屏、小键盘、键盘、鼠标、声音控制、手势控制、惯性模块等。输入模块可以用于获取用户的输入,该输入用于控制可移动平台、承载体、负载、或者其中部件的任何方面。任何方面包括姿态、位置、方向、飞行、追踪等。例如,输入机制可以是用户手动设置一个或者多个位置,每个位置对应一个预设输入,以控制可移动平台。
在某些实施例中,输入机制可以由用户操作,以输入控制指令,控制可移动平台的运动。例如,用户可以利用旋钮、开关或者相似的输入机制,输入可移动平台的运动模式,如自动飞行、自动驾驶或者根据预设运动路径运动。又如,用户可以通过用某种方法倾斜控制终端,以控制可移动平台的位 置、姿态、方向、或者其它方面。控制终端的倾斜可以由一个或者多个惯性传感器所侦测,并产生对应的运动指令。再如,用户可以利用上述输入机制调整负载的操作参数(如变焦)、负载的姿态(通过承载体),或者可移动平台上的任何物体的其它方面。
在某些实施例中,输入机制可以由用户操作,以输入前述描述目标物信息。例如,用户可以利用旋钮、开关或者相似的输入机制,选择合适的追踪模式,如人工追踪模式或者自动追踪模式。用户也可以利用该输入机制选择所要追踪的特定目标物、执行的目标物类型信息、或者其它相似的信息。在各种实施例中,输入模块可以由不止一个设备所执行。例如,输入模块可以由带有操纵杆的标准远程控制器所执行。带有操纵杆的标准远程控制器连接到运行适合应用程序(“app”)的移动设备(如智能手机)中,以产生可移动平台的控制指令。app可以用于获取用户的输入。
处理单元可以与存储器连接。存储器包括易失性或者非易失性存储介质,用于存储数据,及/或处理单元可执行的逻辑、代码、及/或程序指令,用于执行一个或者多个规则或者功能。存储器可以包括一个或者多个存储单元(可去除的介质或者外部存储器,如SD卡或者RAM)。在某些实施例中,输入模块的数据可以直接传送并存储在存储器的存储单元中。存储器的存储单元可以存储由处理单元所执行的逻辑、代码及/或者计算机指令,以执行本案描述的各种方法的各个实施例。例如,处理单元可以用于执行指令,以导致处理单元的一个或者多个处理器处理及显示从可移动平台获取的感应数据(如影像),基于用户输入产生的控制指令,包括运动指令及目标物信息,并导致通讯模块传送及/或者接收数据等。存储单元可以存储感测数据或者从外部设备(如可移动平台)接收的其它数据。在某些实施例中,存储器的存储单元可以存储处理单元生成的处理结果。
在某些实施例中,显示模块可以用于显示如图2中可移动平台10、承载体13及/或图像捕捉装置14关于位置、平移速度、平移加速度、方向、角速度、角加速度、或者其结合等的信息。显示模块可以用于获取可移动平台及/或者负载发送的信息,如感测数据(相机或者其它影像捕获设备记录的影像)、所描述的追踪数据、控制反馈数据等。在某些实施例中,显示模块可以与输入模块由相同的设备所执行。在其它实施例中,显示模块与输入模块可以由 不相同的设备所执行。
通讯模块可以用于从一个或者多个远程设备(如可移动平台、承载体、基站等)传送及/或者接收数据。例如,通讯模块可以传送控制信号(如运动信号、目标物信息、追踪控制指令)给外围系统或者设备,如图2中可移动平台10、承载体13及/或图像捕捉装置14。通讯模块可以包括传送器及接收器,分别用于从远程设备接收数据以及传送数据给远程设备。在某些实施例中,通讯模块可以包括收发器,其结合了传送器与接收器的功能。在某些实施例中,传送器与接收器之间以及与处理单元之间可以彼此通讯。通讯可以利用任何合适的通讯手段,如有线通讯或者无线通讯。
可移动平台在运动过程中捕获的影像可以从可移动平台或者影像设备传回给控制终端或者其它适合的设备,以显示、播放、存储、编辑或者其它目的。这样的传送可以是当影像设备捕获影像时,实时的或者将近实时的发生。可选地,影像的捕获及传送之间可以有延迟。在某些实施例中,影像可以存储在可移动平台的存储器中,而不用传送到任何其它地方。用户可以实时看到这些影像,如果需要,调整目标物信息或者调整可移动平台或者其部件的其它方面。调整的目标物信息可以提供给可移动平台,重复的过程可能继续直到获得可想要的影像。在某些实施例中,影像可以从可移动平台、影像设备及/或控制终端传送给远程服务器。例如,影像可以在一些社交网络平台,如微信朋友圈或者微博上以进行分享。
在一个实施例中,响应于第一用户指令,从辅助视场内确定至少一个基点包括:响应于第一用户指令,确定辅助视场。然后,确定辅助视场中的至少一个基点。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,响应于第一用户指令,从辅助视场内确定至少一个基点包括:响应于第一用户指令,确定辅助视场;以及确定辅助视场中的至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,辅助视场比用于采集图像的图像捕捉装置的当前视场大;并且/或者辅助视场大于或等于期望视场。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一用户指令包括可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中至少一种。相应地,响应于第一用户指令,确定辅助视场包括:响应于第一用户指令,通过调整可移动平台的位置和/或姿态、调整焦距和切换镜头中的至少一种,将当前视场切换至辅助视场。具体内容参考前面的实施例的相同部分,此处不再做赘述。
例如,辅助视场包括至少两个子辅助视场。
在一个实施例中,第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个。相应地,响应于第一用户指令,确定辅助视场包括:响应于第一用户指令,通过调整云台的位置和/或姿态、调整可移动平台的位置和/或姿态、调整焦距和切换镜头中至少一种,将当前视场分别依序切换到至少两个子辅助视场中的每一个,以确定至少两个子辅助视场。相应地,确定辅助视场中的至少一个基点包括:从各子辅助视场中分别确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,期望视场大于用于采集图像的图像捕捉装置的最小视场,图像捕捉装置包括镜头。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,针对各子辅助视场,从各子辅助视场中分别确定至少一个基点包括:获取第二用户指令;以及响应于第二用户指令在各子辅助视场中分部确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,响应于第二用户指令在各子辅助视场中分别确定至少一个基点包括:响应于第二用户指令,基于第一视场预设位置在各子辅助视场中分别确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,确定辅助视场中至少一个基点包括:获取第三用户指令;以及响应于第三用户指令在辅助视场中确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,在获取第三用户指令之前,上述方法还包括:通过显示模块输出与辅助视场对应的图像。相应地,获取第三用户指令包括:在通过显示模块输出与辅助视场对应的图像的过程中,获取针对与辅助视场对应的图像的用户操作,基于用户操作确定第三用户指令。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,确定辅助视场中至少一个基点包括:基于第二视场预设位置在辅助视场中确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
例如,第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一用户指令包括基点设置信息。相应地,响应于第一用户指令,从辅助视场内确定至少一个基点包括:基于基点设置信息从辅助视场内确定至少一个基点。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,基点设置信息包括方向信息、角度值信息、坐标信息或参考点中至少一种。
在一个实施例中,基于至少一个基点确定期望视场包括:基于至少一个基点确定图像采集视场,图像采集视场覆盖的图像采集区域包括期望视场覆盖的图像采集区域,以便获取与期望视场相吻合的图像。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,上述方法还可以包括:对获取的图像进行裁剪,得到与期望视场相吻合的图像。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,对获取的图像进行裁剪,得到与期望视场相吻合的图像包括:获取与图像采集视场对应的初始图像;以及对初始图像进行剪裁, 得到与期望视场相吻合的图像。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,获取与图像采集视场对应的初始图像包括:基于预设视场对图像采集视场进行分解,得到多个子采集视场;控制图像捕捉装置在多个子采集视场下分别进行图像采集,得到多个子图像;以及基于多个子图像合成与图像采集视场对应的初始图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,基于预设视场对图像采集视场进行分解,得到多个采集视场包括:确定与图像采集视场对应的第一图像采集区域,并且确定与预设视场对应的第二图像采集区域;至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域。相应地,控制图像捕捉装置在多个采集视场下分别进行图像采集,得到多个子图像包括:控制图像捕捉装置分别采集与多个子图像采集区域对应的多个子图像。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域包括:基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图像采集区域。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,区域重叠比例是基于用户操作或预设重叠比例来确定的。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图像采集区域包括:基于第二图像采集区域的长度、第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数;基于基于第二图像采集区域的宽度、第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数;以及基于第一个数和第二个数确定子图像采集区域的个数,以对第一图像采集区域进行分解。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,多个子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。可选地,拍摄位姿信息包括:俯仰角信息和/或偏航角信息。
在一个实施例中,当图像捕捉装置设置在云台上,并且云台设置在可移动平台上时,俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种;并且/或者,偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级;并且/或者,偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,拍摄位姿信息还包括:位置信息,位置信息包括高度信息,高度信息表征可移动平台在铅垂方向上的位移信息,图像捕捉装置设于可移动平台上。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各子图像采集区域下进行图像采集。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,当图像捕捉装置设置在云台上,并且云台设置在可移动平台上时,在获取与期望视场相吻合的图像的过程中,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,基于多个子图像合成与图像采集视场对应的初始图像包括:基于羽化方式对多个子图像进行合成,得到与图像采集视场对应的初始图像。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,不同的图像融合区域进行融合过程中消耗的运算资源不同。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,在获取与期望视场相吻合的图像之后,上述方法还包括:通过显示模块输出与期望视场相吻合的图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,对初始图像进行剪裁,得到与期望视场相吻合的图像可以包括:基于至少一个基点对初始图像进行剪裁,得到与期望视场相吻合的图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一用户指令与预设模式之间存在第一映射关系;相应地,上述方法还包括:在获取第一用户指令之后,响应于第一用户指令,进入预设模式。
在一个实施例中,用于采集图像的图像捕捉装置设置在云台上,并且云台设置在可移动平台上;以及在预设模式下,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
本申请的另一方面提供了一种视场确定系统,该系统包括:相互通信连接的控制终端和可移动平台,可移动平台上设置有图像捕捉装置;控制终端用于获取第一用户指令;控制终端用于响应于第一用户指令,从辅助视场内确定至少一个基点,辅助视场是基于可移动平台上的图像捕捉装置的视场来确定的;控制终端用于基于至少一个基点确定期望视场,以得到与期望视场相吻合的图像。
在一个实施例中,控制终端用于响应于第一用户指令,从辅助视场内确定至少一个基点可以包括:控制终端用于响应于第一用户指令,控制可移动平台的图像捕捉装置来确定辅助视场;以及控制终端用于确定辅助视场中的至少一个基点。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,辅助视场比用于采集图像的图像捕捉装置的当前视场大;并且/或者,辅助视场大于或等于期望视场。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一用户指令包括可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中至少一种。
相应地,控制终端用于响应于第一用户指令,控制可移动平台的图像捕捉装置来确定辅助视场包括:控制终端用于响应于第一用户指令,通过控制可移动平台调整位置和/或姿态、控制图像捕捉装置调整焦距和控制图像捕捉装置切换镜头中的至少一种,将当前视场切换至辅助视场。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
例如,辅助视场包括至少两个子辅助视场。
在一个实施例中,第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个。
相应地,控制终端响应于第一用户指令,控制可移动平台的图像捕捉装置来确定辅助视场包括:控制终端响应于第一用户指令,通过控制云台调整位置和/或姿态、控制可移动平台调整位置和/或姿态、控制图像捕捉装置焦距和控制图像捕捉装置切换镜头中至少一种,将当前视场分别依序切换到至少两个子辅助视场中的每一个,以确定至少两个子辅助视场。
相应地,控制终端确定辅助视场中的至少一个基点包括:控制终端从各子辅助视场中分别确定至少一个基点。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,期望视场大于用于采集图像的图像捕捉装置的最小视场,图像捕捉装置包括镜头。具体内容参考前面的实施例的相同部分,此处不再做赘述。
例如,针对各子辅助视场,控制终端从各子辅助视场中分别确定至少一个基点包括:控制终端获取第二用户指令;以及控制终端响应于第二用户指令在各子辅助视场中确定至少一个基点。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,控制终端用于响应于第二用户指令在各子辅助视场中确定至少一个基点包括:控制终端用于响应于第二用户指令,基于第一视场预设位置在各子辅助视场中分别确定至少一个基点。
例如,第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
在一个实施例中,控制终端用于确定辅助视场中的至少一个基点可以包括如下操作,首先,控制终端用于获取第三用户指令。然后,控制终端用于响应于第三用户指令在辅助视场中确定至少一个基点。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,控制终端用于获取第三用户指令之前,还可以用于通过显示模块输出与辅助视场对应的图像。
相应地,控制终端用于获取第三用户指令可以包括如下操作。控制终端在用于通过显示模块输出与辅助视场对应的图像的过程中,获取针对与辅助视场对应的图像的用户操作,并且基于用户操作确定第三用户指令。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,控制终端用于确定辅助视场中的至少一个基点包括:控制终端用于基于第二视场预设位置在辅助视场中确定至少一个基点。
例如,第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
在一个实施例中,第一用户指令包括基点设置信息。相应地,控制终端响应于第一用户指令,从辅助视场内确定至少一个基点可以包括:控制终端基于基点设置信息从辅助视场内确定至少一个基点。
其中,基点设置信息可以包括方向信息、角度值信息、坐标信息或参考点中至少一种。
在一个实施例中,控制终端用于基于至少一个基点确定期望视场可以包括如下操作:控制终端用于基于至少一个基点确定图像采集视场,图像采集视场覆盖的图像采集区域包括期望视场覆盖的图像采集区域,以便获取与期望视场相吻合的图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,控制终端用于基于至少一个基点确定图像采集视场。相应地,图像捕捉装置还用于获取基点;以及对获取的图像进行裁剪,得到与期望视场相吻合的图像。
例如,基点是由控制终端响应于用户操作来确定的,然后由控制终端将基点经由可移动平台发送给相机,或者由控制终端直接发送给相机。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,图像捕捉装置用于对获取的图像进行裁剪,得到与期望视场相吻合的图像可以包括如下操作:图像捕捉装置用于获取与图像采集视场对应的初始图像。然后,图像捕捉装置用于对初始图像进行剪裁,得到与期望视场相吻合的图像。
在一个实施例中,图像捕捉装置用于获取与图像采集视场对应的初始图像可以包括如下操作。首先,图像捕捉装置用于在多个子采集视场下分别进行图像采集,得到多个子图像,其中,多个子采集视场是可移动平台和/或图像捕捉装置基于预设视场对图像采集视场进行分解得到的。然后,图像捕捉装置用于基于多个子图像合成与图像采集视场对应的初始图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,多个子采集视场可以通过如下方式来确定:首先,可移动平台和/或图像捕捉装置用于确定与图像采集视场对应的第一图像采集区域,并且确定与预设视场对应的第二图像采集区域。然后,可移动平台和/或图像捕捉装置用于至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域,以确定多个子采集视场。相应地,图像捕捉装置用于在多个子采集视场下分别进行图像采集,得到多个子图像可以包括如下操作,图像捕捉装置用于分别采集与多个子图像采集区域对应的多个子图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,可移动平台和/或图像捕捉装置用于至少基于第二图像采集区域对第一图像采集区域进行分解,得到多个子图像采集区域包括:可移动平台和/或图像捕捉装置用于基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图像采集区域。
例如,区域重叠比例是基于用户操作或预设重叠比例来确定的。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,可移动平台和/或图像捕捉装置用于基于第二图像采集区域和区域重叠比例对第一图像采集区域进行分解,得到多个子图像采集区 域可以包括如下操作,首先,可移动平台和/或图像捕捉装置用于基于第二图像采集区域的长度、第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数,然后,可移动平台和/或图像捕捉装置用于基于第二图像采集区域的宽度、第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数,接着,可移动平台和/或图像捕捉装置用于基于第一个数和第二个数确定子图像采集区域的个数,以对第一图像采集区域进行分解。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,多个子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。具体内容参考前面的实施例的相同部分,此处不再做赘述。
例如,拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。
在一个实施例中,图像捕捉装置设置在云台上,并且云台设置在可移动平台上。相应地,俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种;并且/或者,偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级;并且/或者,偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。
例如,拍摄位姿信息还包括:位置信息,位置信息包括高度信息,高度信息表征可移动平台在铅垂方向上的位移信息,图像捕捉装置设于可移动平台上。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各子图像采集区域下进行图像采集。
在一个实施例中,图像捕捉装置设置在云台上,并且云台设置在可移动平台上,在获取与期望视场相吻合的图像的过程中,可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,图像捕捉装置用于基于多个子图像合成与图像采集视场对应的初始图像可以包括如下操作,图像捕捉装置用于基于羽化方式对多个子图像进行合成,得到与图像采集视场对应的初始图像。
在一个实施例中,图像捕捉装置在对不同的图像融合区域进行融合过程中消耗的运算资源不同。例如,用户感兴趣的图像区域(如人物、建筑、地标等图像区域)可以重要更高的运算资源,反之亦然。
在一个实施例中,控制终端在用于获取与期望视场相吻合的图像之后,还用于通过显示模块输出与期望视场相吻合的图像。
在一个实施例中,图像捕捉装置用于对初始图像进行剪裁,得到与期望视场相吻合的图像可以包括如下操作,图像捕捉装置用于基于至少一个基点对初始图像进行剪裁,得到与期望视场相吻合的图像。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,第一用户指令与预设模式之间存在第一映射关系;相应地,控制终端用于在获取第一用户指令之后,还用于响应于第一用户指令,进入预设模式。
具体内容参考前面的实施例的相同部分,此处不再做赘述。
在一个实施例中,图像捕捉装置设置在云台上,并且云台设置在可移动平台上;以及可移动平台在预设模式下,处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
在一个实施例中,控制终端设置在可移动平台上。如控制终端和可移动平移是一体的。具体内容参考前面的实施例的相同部分,此处不再做赘述。
以下对可移动平台进行示例性说明。
图18为本申请实施例提供的可移动平台的结构示意图。
如图18所示,该可移动平台可以是无人机170,该无人机170可以包括多个动力系统171以及脚架。云台可以设置在无人机170上。
在一实施例中,无人机170的多个动力系统171与多个机臂一一对应。每个动力系统171可以包括电机组件和与电机组件连接的桨叶。每个动力系统171可以设置于与其对应的机臂上,由该对应的机臂来支撑该动力系统171。
此外,无人机170还可以包括脚架。该脚架可以位于云台下方,且与云台连接。在无人机170降落时,可以用于无人机170着陆。
图19示意性示出了本申请另一实施例的可移动平台的示意图。
如图19所示,该可移动平台是机器人180,如在陆地行驶类型的机器人,云台可以设置在该陆地机器人上。尽管可移动平台被描述为陆地机器人,然而这样的描述并不是限制,前述描述的任何类型的可移动平台都适用(如空中机器人、水上机器人)。在某些实施例中,驱动装置可以位于可移动平台的底部。感测模块可以包括一个或多个传感器,以检测陆地机器人的相关信息,如障碍物信息、环境信息、目标对象的图像信息等。此外,陆地机器人还可以包括通讯系统,用于与一个或多个终端进行信息交互。驱动装置可以是如上的动力系统181,如电机等,感测模块可以包括雷达、激光传感器、定位传感器等。终端包括但不限于:遥控器、台式电脑、笔记本电脑等,陆地机器人与终端之间的通讯可以同现有技术,在此不再一一详述。
图20示意性示出了本申请另一实施例的可移动平台的示意图。
如图20所示,该可移动平台是手持云台190,该手持云台190可以包括如上述的云台的结构。手持云台190可以包括:云台及支撑云台的手柄,该手柄为用户进行握持的部分,可以包括控制按钮,以便于对云台进行操作。手持云台190与支架中的功能部件(如相机)通信连接,以获取相机所拍摄的图像信息。
此外,该手持云台190还可以与终端设备191(如手机)等相连,以向手机发送图像等信息。
以上为本申请的最优实施例,需要说明的,该最优的实施例仅用于理解本申请,并不用于限制本申请的保护范围。并且,最优实施例中的特征,在无特别注明的情况下,均同时适用于方法实施例和装置实施例,在相同或不同实施例中出现的技术特征在不相互冲突的情况下可以组合使用。
在一些可能的实施例中,最后应说明的是:以上实施方式仅用以说明本申请的技术方案,而非对其进行限制;尽管参照前述实施方式对本申请已经进行了详细的说明,但本领域的普通技术人员应当理解:其依然可以对前述实施方式所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请 实施方式技术方案的范围。

Claims (113)

  1. 一种视场确定方法,其特征在于,所述方法包括:
    获取第一用户指令;
    响应于所述第一用户指令,从辅助视场内确定至少一个基点;以及
    基于至少一个所述基点确定期望视场,以得到与所述期望视场相吻合的图像。
  2. 根据权利要求1所述的方法,其特征在于,所述响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    响应于所述第一用户指令,确定所述辅助视场;以及
    确定所述辅助视场中的至少一个所述基点。
  3. 根据权利要求2所述的方法,其特征在于,所述辅助视场比用于采集图像的图像捕捉装置的当前视场大;并且/或者
    所述辅助视场大于或等于所述期望视场。
  4. 根据权利要求3所述的方法,其特征在于,所述第一用户指令包括可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中至少一种;以及
    所述响应于所述第一用户指令,确定辅助视场包括:
    响应于所述第一用户指令,通过调整所述可移动平台的位置和/或姿态、调整焦距和切换镜头中的至少一种,将所述当前视场切换至辅助视场。
  5. 根据权利要求2所述的方法,其特征在于,所述辅助视场包括至少两个子辅助视场。
  6. 根据权利要求5所述的方法,其特征在于,所述第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个;以及
    所述响应于所述第一用户指令,确定辅助视场包括:
    响应于所述第一用户指令,通过调整所述云台的位置和/或姿态、调整所述可移动平台的位置和/或姿态、调整焦距和切换镜头中至少一种,将当前视 场分别依序切换到至少两个所述子辅助视场中的每一个,以确定至少两个所述子辅助视场;
    所述确定所述辅助视场中的至少一个基点包括:
    从各所述子辅助视场中分别确定至少一个基点。
  7. 根据权利要求4或6所述的方法,其特征在于,所述期望视场大于用于采集图像的图像捕捉装置的最小视场,所述图像捕捉装置包括镜头。
  8. 根据权利要求6所述的方法,其特征在于,针对各所述子辅助视场,所述从各所述子辅助视场中分别确定至少一个基点包括:
    获取第二用户指令;以及
    响应于所述第二用户指令在各所述子辅助视场中分别确定至少一个所述基点。
  9. 根据权利要求8所述的方法,其特征在于,所述响应于所述第二用户指令在各所述子辅助视场中分别确定至少一个所述基点包括:
    响应于所述第二用户指令,基于第一视场预设位置在各所述子辅助视场中分别确定至少一个所述基点。
  10. 根据权利要求9所述的方法,其特征在于,所述第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  11. 根据权利要求2所述的方法,其特征在于,所述确定所述辅助视场中至少一个基点包括:
    获取第三用户指令;以及
    响应于所述第三用户指令在所述辅助视场中确定至少一个所述基点。
  12. 根据权利要求11所述的方法,其特征在于,在所述获取第三用户指令之前,所述方法还包括:
    输出与所述辅助视场对应的图像;以及
    所述获取第三用户指令包括:
    在输出与所述辅助视场对应的图像的过程中,获取针对所述与所述辅助视场对应的图像的用户操作,基于所述用户操作确定第三用户指令。
  13. 根据权利要求2所述的方法,其特征在于,所述确定所述辅助视场中至少一个基点包括:
    基于第二视场预设位置在所述辅助视场中确定至少一个所述基点。
  14. 根据权利要求13所述的方法,其特征在于,所述第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  15. 根据权利要求1所述的方法,其特征在于,所述第一用户指令包括基点设置信息;
    所述响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    基于所述基点设置信息从辅助视场内确定至少一个所述基点。
  16. 根据权利要求15所述的方法,其特征在于,所述基点设置信息包括方向信息、角度值信息、坐标信息或参考点中至少一种。
  17. 根据权利要求1所述的方法,其特征在于,所述基于至少一个所述基点确定期望视场包括:
    基于至少一个所述基点确定图像采集视场,所述图像采集视场覆盖的图像采集区域包括所述期望视场覆盖的图像采集区域,以便获取与所述期望视场相吻合的图像。
  18. 根据权利要求17所述的方法,其特征在于,所述方法还包括:
    对获取的图像进行裁剪,得到与所述期望视场相吻合的图像。
  19. 根据权利要求18所述的方法,其特征在于,所述对获取的图像进行裁剪,得到与所述期望视场相吻合的图像包括:
    获取与所述图像采集视场对应的初始图像;以及
    对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  20. 根据权利要求19所述的方法,其特征在于,所述获取与所述图像采集视场对应的初始图像包括:
    基于预设视场对所述图像采集视场进行分解,得到多个子采集视场;
    控制图像捕捉装置在多个所述子采集视场下分别进行图像采集,得到多个子图像;以及
    基于多个所述子图像合成与所述图像采集视场对应的初始图像。
  21. 根据权利要求20所述的方法,其特征在于,所述基于预设视场对所述图像采集视场进行分解,得到多个采集视场包括:
    确定与所述图像采集视场对应的第一图像采集区域,并且确定与所述预设视场对应的第二图像采集区域;
    至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域;以及
    所述控制图像捕捉装置在多个所述采集视场下分别进行图像采集,得到多个子图像包括:
    控制所述图像捕捉装置分别采集与多个所述子图像采集区域对应的多个子图像。
  22. 根据权利要求21所述的方法,其特征在于,所述至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域。
  23. 根据权利要求22所述的方法,其特征在于,所述区域重叠比例是基于用户操作或预设重叠比例来确定的。
  24. 根据权利要求22所述的方法,其特征在于,所述基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    基于所述第二图像采集区域的长度、所述第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数;
    基于基于所述第二图像采集区域的宽度、所述第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数;以及
    基于所述第一个数和所述第二个数确定子图像采集区域的个数,以对所述第一图像采集区域进行分解。
  25. 根据权利要求21所述的方法,其特征在于,多个所述子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。
  26. 根据权利要求25所述的方法,其特征在于,所述拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。
  27. 根据权利要求26所述的方法,其特征在于,当所述图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上时,其中:
    所述俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种;
    并且/或者
    所述偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。
  28. 根据权利要求26所述的方法,其特征在于,所述俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级;
    并且/或者
    所述偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。
  29. 根据权利要求26所述的方法,其特征在于,所述拍摄位姿信息还包括:位置信息,所述位置信息包括高度信息,所述高度信息表征可移动平台在铅垂方向上的位移信息,所述图像捕捉装置设于所述可移动平台上。
  30. 根据权利要求25所述的方法,其特征在于,所述拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于所述图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各所述子图像采集区域下进行图像采集。
  31. 根据权利要求17所述的方法,其特征在于,当图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上时,在获取与所述期望视场相吻合的图像的过程中,所述可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。
  32. 根据权利要求20所述的方法,其特征在于,所述基于所述多个子图像合成与所述图像采集视场对应的初始图像包括:
    基于羽化方式对所述多个子图像进行合成,得到与所述图像采集视场对应的初始图像。
  33. 根据权利要求32所述的方法,其特征在于,不同的图像融合区域进行融合过程中消耗的运算资源不同。
  34. 根据权利要求17所述的方法,其特征在于,在获取与所述期望视场相吻合的图像之后,所述方法还包括:
    输出所述与所述期望视场相吻合的图像。
  35. 根据权利要求19所述的方法,其特征在于,所述对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像,包括:
    基于至少一个所述基点对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  36. 根据权利要求1所述的方法,其特征在于,所述第一用户指令与预设模式之间存在第一映射关系;
    在获取第一用户指令之后,所述方法还包括:
    响应于所述第一用户指令,进入所述预设模式。
  37. 根据权利要求36所述的方法,其特征在于,用于采集图像的图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上;以及
    在所述预设模式下,所述可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且所述云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
  38. 一种视场确定装置,其特征在于,所述装置包括:
    一个或多个处理器;以及
    计算机可读存储介质,用于存储一个或多个计算机程序,所述计算机程序在被所述处理器执行时,实现:
    获取第一用户指令;
    响应于所述第一用户指令,从辅助视场内确定至少一个基点;以及
    基于至少一个所述基点确定期望视场,以得到与所述期望视场相吻合的图像。
  39. 根据权利要求38所述的装置,其特征在于,所述响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    响应于所述第一用户指令,确定辅助视场;以及
    确定所述辅助视场中的至少一个所述基点。
  40. 根据权利要求39所述的装置,其特征在于,所述辅助视场比用于采集图像的图像捕捉装置的当前视场大;并且/或者
    所述辅助视场大于或等于所述期望视场。
  41. 根据权利要求40所述的装置,其特征在于,所述第一用户指令包括可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中至少一种;以及
    所述响应于所述第一用户指令,确定辅助视场包括:
    响应于所述第一用户指令,通过调整所述可移动平台的位置和/或姿态、调整焦距和切换镜头中的至少一种,将所述当前视场切换至所述辅助视场。
  42. 根据权利要求39所述的装置,其特征在于,所述辅助视场包括至少两个子辅助视场。
  43. 根据权利要求42所述的装置,其特征在于,所述第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个;以及
    所述响应于所述第一用户指令,确定辅助视场包括:
    响应于所述第一用户指令,通过调整所述云台的位置和/或姿态、调整所述可移动平台的位置和/或姿态、调整焦距和切换镜头中至少一种,将当前视场分别依序切换到至少两个所述子辅助视场中的每一个,以确定至少两个所述子辅助视场;
    所述确定所述辅助视场中的至少一个基点包括:
    从各所述子辅助视场中分别确定至少一个基点。
  44. 根据权利要求41或43所述的装置,其特征在于,所述期望视场大于用于采集图像的图像捕捉装置的最小视场,所述图像捕捉装置包括所述镜头。
  45. 根据权利要求43所述的装置,其特征在于,针对各所述子辅助视场,所述从各所述子辅助视场中分别确定至少一个基点包括:
    获取第二用户指令;以及
    响应于所述第二用户指令在所述子辅助视场中确定至少一个所述基点。
  46. 根据权利要求45所述的装置,其特征在于,所述响应于所述第二用户指令在所述子辅助视场中确定至少一个所述基点包括:
    响应于所述第二用户指令,基于第一视场预设位置在各所述子辅助视场中分别确定至少一个所述基点。
  47. 根据权利要求46所述的装置,其特征在于,所述第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  48. 根据权利要求39所述的装置,其特征在于,所述确定所述辅助视场中至少一个基点包括:
    获取第三用户指令;以及
    响应于所述第三用户指令在所述辅助视场中确定至少一个所述基点。
  49. 根据权利要求48所述的装置,其特征在于,在所述获取第三用户指令之前,所述计算机程序在被所述处理器执行时还用于实现:
    通过显示模块输出与所述辅助视场对应的图像;以及
    所述获取第三用户指令包括:
    在通过显示模块输出与所述辅助视场对应的图像的过程中,获取针对所述与所述辅助视场对应的图像的用户操作,基于所述用户操作确定第三用户指令。
  50. 根据权利要求39所述的装置,其特征在于,所述确定所述辅助视场中至少一个基点包括:
    基于第二视场预设位置在所述辅助视场中确定至少一个所述基点。
  51. 根据权利要求50所述的装置,其特征在于,所述第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  52. 根据权利要求38所述的装置,其特征在于,所述第一用户指令包括基点设置信息;
    所述响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    基于所述基点设置信息从辅助视场内确定至少一个所述基点。
  53. 根据权利要求52所述的装置,其特征在于,所述基点设置信息包括方向信息、角度值信息、坐标信息或参考点中至少一种。
  54. 根据权利要求38所述的装置,其特征在于,所述基于至少一个所述基点确定期望视场包括:
    基于至少一个所述基点确定图像采集视场,所述图像采集视场覆盖的图像采集区域包括所述期望视场覆盖的图像采集区域,以便获取与所述期望视场相吻合的图像。
  55. 根据权利要求54所述的装置,其特征在于,所述计算机程序在被所述处理器执行时还用于实现:
    对获取的图像进行裁剪,得到与所述期望视场相吻合的图像。
  56. 根据权利要求55所述的装置,其特征在于,所述对获取的图像进行裁剪,得到与所述期望视场相吻合的图像包括:
    获取与所述图像采集视场对应的初始图像;以及
    对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  57. 根据权利要求56所述的装置,其特征在于,所述获取与所述图像采集视场对应的初始图像包括:
    基于预设视场对所述图像采集视场进行分解,得到多个子采集视场;
    控制图像捕捉装置在多个所述子采集视场下分别进行图像采集,得到多个子图像;以及
    基于多个所述子图像合成与所述图像采集视场对应的初始图像。
  58. 根据权利要求57所述的装置,其特征在于,所述基于预设视场对所述图像采集视场进行分解,得到多个采集视场包括:
    确定与所述图像采集视场对应的第一图像采集区域,并且确定与所述预设视场对应的第二图像采集区域;
    至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域;以及
    所述控制图像捕捉装置在多个所述采集视场下分别进行图像采集,得到多个子图像包括:
    控制所述图像捕捉装置分别采集与多个所述子图像采集区域对应的多个子图像。
  59. 根据权利要求58所述的装置,其特征在于,所述至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域。
  60. 根据权利要求59所述的装置,其特征在于,所述区域重叠比例是基于用户操作或预设重叠比例来确定的。
  61. 根据权利要求59所述的装置,其特征在于,所述基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    基于所述第二图像采集区域的长度、所述第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数;
    基于基于所述第二图像采集区域的宽度、所述第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数;以及
    基于所述第一个数和所述第二个数确定子图像采集区域的个数,以对所述第一图像采集区域进行分解。
  62. 根据权利要求58所述的装置,其特征在于,多个所述子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。
  63. 根据权利要求62所述的装置,其特征在于,所述拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。
  64. 根据权利要求63所述的装置,其特征在于,当所述图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上时,其中:
    所述俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种;
    并且/或者
    所述偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。
  65. 根据权利要求63所述的装置,其特征在于,所述俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级;
    并且/或者
    所述偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。
  66. 根据权利要求63所述的装置,其特征在于,所述拍摄位姿信息还包括:位置信息,所述位置信息包括高度信息,所述高度信息表征可移动平台在铅垂方向上的位移信息,所述图像捕捉装置设于所述可移动平台上。
  67. 根据权利要求62所述的装置,其特征在于,所述拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于所述图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各所述子图像采集区域下进行图像采集。
  68. 根据权利要求54所述的装置,其特征在于,当图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上时,在获取与所述期望视场相吻 合的图像的过程中,所述可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。
  69. 根据权利要求57所述的装置,其特征在于,所述基于所述多个子图像合成与所述图像采集视场对应的初始图像包括:
    基于羽化方式对所述多个子图像进行合成,得到与所述图像采集视场对应的初始图像。
  70. 根据权利要求69所述的装置,其特征在于,不同的图像融合区域进行融合过程中消耗的运算资源不同。
  71. 根据权利要求54所述的装置,其特征在于,在获取与所述期望视场相吻合的图像之后,所述计算机程序在被所述处理器执行时还用于实现:
    通过显示模块输出所述与所述期望视场相吻合的图像。
  72. 根据权利要求56所述的装置,其特征在于,所述对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像,包括:
    基于至少一个所述基点对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  73. 根据权利要求38所述的装置,其特征在于,所述第一用户指令与预设模式之间存在第一映射关系;
    在获取第一用户指令之后,所述计算机程序在被所述处理器执行时还用于实现:
    响应于所述第一用户指令,进入所述预设模式。
  74. 根据权利要求73所述的装置,其特征在于,用于采集图像的图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上;以及
    在所述预设模式下,所述可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且所述云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
  75. 一种视场确定系统,其特征在于,所述系统包括:相互通信连接的控制终端和可移动平台,所述可移动平台上设置有图像捕捉装置;
    所述控制终端用于获取第一用户指令;
    所述控制终端用于响应于所述第一用户指令,从辅助视场内确定至少一个基点,所述辅助视场是基于所述可移动平台上的图像捕捉装置的视场来确定的;
    所述控制终端用于基于至少一个所述基点确定期望视场,以得到与所述期望视场相吻合的图像。
  76. 根据权利要求75所述的系统,其特征在于,所述控制终端用于响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    所述控制终端用于响应于所述第一用户指令,确定辅助视场;以及
    所述控制终端用于确定所述辅助视场中的至少一个所述基点。
  77. 根据权利要求76所述的系统,其特征在于,所述辅助视场比用于采集图像的图像捕捉装置的当前视场大;并且/或者
    所述辅助视场大于或等于所述期望视场。
  78. 根据权利要求77所述的系统,其特征在于,所述第一用户指令包括可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中至少一种;以及
    所述控制终端用于响应于所述第一用户指令,确定辅助视场包括:
    所述控制终端用于响应于所述第一用户指令,通过控制所述可移动平台调整位置和/或姿态、控制所述图像捕捉装置调整焦距和控制所述图像捕捉装置切换镜头中的至少一种,将所述当前视场切换至辅助视场。
  79. 根据权利要求76所述的系统,其特征在于,所述辅助视场包括至少两个子辅助视场。
  80. 根据权利要求79所述的系统,其特征在于,所述第一用户指令包括云台的位置调整指令、云台的姿态调整指令、可移动平台的位置调整指令、可移动平台的姿态调整指令、焦距调整指令和镜头切换指令中的至少一个;以及
    所述控制终端用于响应于所述第一用户指令,确定辅助视场包括:
    所述控制终端用于响应于所述第一用户指令,通过控制所述云台调整位置和/或姿态、控制所述可移动平台调整位置和/或姿态、控制所述图像捕捉装置焦距和控制所述图像捕捉装置切换镜头中至少一种,将当前视场分别依序 切换到至少两个所述子辅助视场中的每一个,以确定至少两个所述子辅助视场;
    所述控制终端用于确定所述辅助视场中的至少一个所述基点包括:
    所述控制终端用于从各所述子辅助视场中分别确定至少一个基点。
  81. 根据权利要求78或80所述的系统,其特征在于,所述期望视场大于用于采集图像的图像捕捉装置的最小视场,所述图像捕捉装置包括镜头。
  82. 根据权利要求80所述的系统,其特征在于,针对各所述子辅助视场,所述控制终端用于从各所述子辅助视场中分别确定至少一个基点包括:
    所述控制终端用于获取第二用户指令;以及
    所述控制终端用于响应于所述第二用户指令在各所述子辅助视场中分别确定至少一个所述基点。
  83. 根据权利要求82所述的系统,其特征在于,所述控制终端用于响应于所述第二用户指令在各所述子辅助视场中分别确定至少一个所述基点包括:
    所述控制终端用于响应于所述第二用户指令,基于第一视场预设位置在各所述子辅助视场中分别确定至少一个所述基点。
  84. 根据权利要求83所述的系统,其特征在于,所述第一视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  85. 根据权利要求76所述的系统,其特征在于,所述控制终端用于确定所述辅助视场中的至少一个所述基点包括:
    所述控制终端用于获取第三用户指令;以及
    所述控制终端用于响应于所述第三用户指令在所述辅助视场中确定至少一个所述基点。
  86. 根据权利要求85所述的系统,其特征在于,所述控制终端用于获取第三用户指令之前,还用于通过显示模块输出与所述辅助视场对应的图像;以及
    所述控制终端用于获取第三用户指令包括:
    所述控制终端用于在通过显示模块输出与所述辅助视场对应的图像的过程中,获取针对所述与所述辅助视场对应的图像的用户操作,并且基于所述用户操作确定第三用户指令。
  87. 根据权利要求76所述的系统,其特征在于,所述控制终端用于确定所述辅助视场中的至少一个所述基点包括:
    所述控制终端用于基于第二视场预设位置在所述辅助视场中确定至少一个所述基点。
  88. 根据权利要求87所述的系统,其特征在于,所述第二视场预设位置包括以下至少一种:中心点、顶点、基于预设规则确定的任意一点。
  89. 根据权利要求75所述的系统,其特征在于,所述第一用户指令包括基点设置信息;
    所述控制终端用于响应于所述第一用户指令,从辅助视场内确定至少一个基点包括:
    所述控制终端用于基于所述基点设置信息从所述辅助视场内确定至少一个所述基点。
  90. 根据权利要求89所述的系统,其特征在于,所述基点设置信息包括方向信息、角度值信息、坐标信息或参考点中至少一种。
  91. 根据权利要求75所述的系统,其特征在于,所述控制终端用于基于至少一个所述基点确定期望视场包括:
    所述控制终端用于基于至少一个所述基点确定图像采集视场,所述图像采集视场覆盖的图像采集区域包括所述期望视场覆盖的图像采集区域,以便获取与所述期望视场相吻合的图像。
  92. 根据权利要求91所述的系统,其特征在于,所述图像捕捉装置用于对获取的图像进行裁剪,得到与所述期望视场相吻合的图像。
  93. 根据权利要求92所述的系统,其特征在于,所述图像捕捉装置用于对获取的图像进行裁剪,得到与所述期望视场相吻合的图像包括:
    所述图像捕捉装置用于获取与所述图像采集视场对应的初始图像;以及
    所述图像捕捉装置用于对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  94. 根据权利要求93所述的系统,其特征在于,所述图像捕捉装置用于获取与所述图像采集视场对应的初始图像包括:
    所述图像捕捉装置用于在多个子采集视场下分别进行图像采集,得到多个子图像,其中,多个所述子采集视场是基于预设视场对所述图像采集视场进行分解得到的;以及
    所述图像捕捉装置用于基于多个所述子图像合成与所述图像采集视场对应的初始图像。
  95. 根据权利要求94所述的系统,其特征在于,多个所述子采集视场通过如下方式确定:
    所述可移动平台和/或所述图像捕捉装置用于确定与所述图像采集视场对应的第一图像采集区域,并且确定与所述预设视场对应的第二图像采集区域;
    所述可移动平台和/或所述图像捕捉装置用于至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域,以确定多个所述子采集视场;以及
    所述图像捕捉装置用于在多个所述子采集视场下分别进行图像采集,得到多个子图像包括:
    所述图像捕捉装置用于分别采集与多个所述子图像采集区域对应的多个子图像。
  96. 根据权利要求95所述的系统,其特征在于,所述可移动平台和/或所述图像捕捉装置用于至少基于所述第二图像采集区域对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    所述可移动平台和/或所述图像捕捉装置用于基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域。
  97. 根据权利要求96所述的系统,其特征在于,所述区域重叠比例是基于用户操作或预设重叠比例来确定的。
  98. 根据权利要求96所述的系统,其特征在于,所述可移动平台和/或所述图像捕捉装置用于基于所述第二图像采集区域和区域重叠比例对所述第一图像采集区域进行分解,得到多个子图像采集区域包括:
    所述可移动平台和/或所述图像捕捉装置用于基于所述第二图像采集区域的长度、所述第一图像采集区域的长度和长度重叠比例,确定长度方向包括的子图像采集区域的第一个数;
    所述可移动平台和/或所述图像捕捉装置用于基于所述第二图像采集区域的宽度、所述第一图像采集区域的宽度和宽度重叠比例,确定宽度方向包括的子图像采集区域的第二个数;以及
    所述可移动平台和/或所述图像捕捉装置用于基于所述第一个数和所述第二个数确定子图像采集区域的个数,以对所述第一图像采集区域进行分解。
  99. 根据权利要求95所述的系统,其特征在于,多个所述子图像采集区域中每个子图像采集区域具有对应的拍摄位姿信息。
  100. 根据权利要求99所述的系统,其特征在于,所述拍摄位姿信息包括:俯仰角信息、偏航角信息、横滚角信息中的至少一种。
  101. 根据权利要求100所述的系统,其特征在于,所述图像捕捉装置设置在云台上,并且所述云台设置在可移动平台上;
    所述俯仰角信息包括可移动平台俯仰角信息和云台俯仰角信息中的至少一种;
    并且/或者
    所述偏航角信息包括可移动平台偏航角信息和云台偏航角信息中的至少一种。
  102. 根据权利要求100所述的系统,其特征在于,所述俯仰角信息中的云台俯仰角的调整优先级大于或等于可移动平台俯仰角的调整优先级;
    并且/或者
    所述偏航角信息中的云台偏航角的调整优先级大于或等于可移动平台偏航角的调整优先级。
  103. 根据权利要求100所述的系统,其特征在于,所述拍摄位姿信息还包括:位置信息,所述位置信息包括高度信息,所述高度信息表征可移动平台在铅垂方向上的位移信息,所述图像捕捉装置设于所述可移动平台上。
  104. 根据权利要求99所述的系统,其特征在于,所述拍摄位姿信息是基于当前拍摄位姿对应的图像采集区域和多个子图像采集区域确定的,用于 所述图像捕捉装置从当前图像采集区域至多个子图像采集区域的依序切换,以在各所述子图像采集区域下进行图像采集。
  105. 根据权利要求91所述的系统,其特征在于,所述图像捕捉装置设置在云台上,并且所述云台设置在所述可移动平台上,在获取与所述期望视场相吻合的图像的过程中,所述可移动平台处于悬停状态、垂直升降状态或者水平移动状态中的任意一种。
  106. 根据权利要求94所述的系统,其特征在于,所述图像捕捉装置用于基于多个所述子图像合成与所述图像采集视场对应的初始图像包括:
    所述图像捕捉装置用于基于羽化方式对所述多个子图像进行合成,得到与所述图像采集视场对应的初始图像。
  107. 根据权利要求106所述的系统,其特征在于,所述图像捕捉装置在对不同的图像融合区域进行融合过程中消耗的运算资源不同。
  108. 根据权利要求91所述的系统,其特征在于,所述控制终端在用于获取与所述期望视场相吻合的图像之后,还用于通过显示模块输出所述与所述期望视场相吻合的图像。
  109. 根据权利要求93所述的系统,其特征在于,所述图像捕捉装置用于对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像包括:
    所述图像捕捉装置用于基于至少一个所述基点对所述初始图像进行剪裁,得到与所述期望视场相吻合的图像。
  110. 根据权利要求75所述的系统,其特征在于,所述第一用户指令与预设模式之间存在第一映射关系;
    所述控制终端在用于获取第一用户指令之后,还用于响应于所述第一用户指令,进入所述预设模式。
  111. 根据权利要求110所述的系统,其特征在于,所述图像捕捉装置设置在云台上,并且所述云台设置在所述可移动平台上;以及
    所述可移动平台在所述预设模式下,处于悬停状态、垂直升降状态或者水平移动状态中的任意一种,且所述云台处于锁定状态或者可绕至少一个轴中的至少一种转动。
  112. 根据权利要求75所述的系统,其特征在于,所述控制终端设置在所述可移动平台上。
  113. 一种计算机可读存储介质,其特征在于,其存储有可执行指令,所述可执行指令在由一个或多个处理器执行时,可以使所述一个或多个处理器执行如权利要求1至37中任一项权利要求所述的方法。
PCT/CN2020/115379 2020-09-15 2020-09-15 视场确定方法、视场确定装置、视场确定系统和介质 WO2022056683A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2020/115379 WO2022056683A1 (zh) 2020-09-15 2020-09-15 视场确定方法、视场确定装置、视场确定系统和介质
CN202080035373.6A CN113841381B (zh) 2020-09-15 2020-09-15 视场确定方法、视场确定装置、视场确定系统和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/115379 WO2022056683A1 (zh) 2020-09-15 2020-09-15 视场确定方法、视场确定装置、视场确定系统和介质

Publications (1)

Publication Number Publication Date
WO2022056683A1 true WO2022056683A1 (zh) 2022-03-24

Family

ID=78963295

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/115379 WO2022056683A1 (zh) 2020-09-15 2020-09-15 视场确定方法、视场确定装置、视场确定系统和介质

Country Status (2)

Country Link
CN (1) CN113841381B (zh)
WO (1) WO2022056683A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611689A (zh) * 2024-01-23 2024-02-27 凯多智能科技(上海)有限公司 标定参数校准方法、检测方法、装置、介质、设备及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060198621A1 (en) * 2004-12-27 2006-09-07 Soroj Triteyaprasert Image pickup apparatus and method and program
CN104486543A (zh) * 2014-12-09 2015-04-01 北京时代沃林科技发展有限公司 智能终端触控方式控制云台摄像头的设备和方法
CN108259921A (zh) * 2018-02-08 2018-07-06 哈尔滨市舍科技有限公司 一种基于场景切换的多角度直播系统及切换方法
CN108781261A (zh) * 2016-06-09 2018-11-09 谷歌有限责任公司 通过视觉障碍拍摄照片

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9619138B2 (en) * 2012-06-19 2017-04-11 Nokia Corporation Method and apparatus for conveying location based images based on a field-of-view
JP6470796B2 (ja) * 2017-06-12 2019-02-13 株式会社コロプラ 情報処理方法、プログラム及びコンピュータ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060198621A1 (en) * 2004-12-27 2006-09-07 Soroj Triteyaprasert Image pickup apparatus and method and program
CN104486543A (zh) * 2014-12-09 2015-04-01 北京时代沃林科技发展有限公司 智能终端触控方式控制云台摄像头的设备和方法
CN108781261A (zh) * 2016-06-09 2018-11-09 谷歌有限责任公司 通过视觉障碍拍摄照片
CN108259921A (zh) * 2018-02-08 2018-07-06 哈尔滨市舍科技有限公司 一种基于场景切换的多角度直播系统及切换方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117611689A (zh) * 2024-01-23 2024-02-27 凯多智能科技(上海)有限公司 标定参数校准方法、检测方法、装置、介质、设备及系统
CN117611689B (zh) * 2024-01-23 2024-04-05 凯多智能科技(上海)有限公司 标定参数校准方法、检测方法、装置、介质、设备及系统

Also Published As

Publication number Publication date
CN113841381A (zh) 2021-12-24
CN113841381B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
US11649052B2 (en) System and method for providing autonomous photography and videography
US11797009B2 (en) Unmanned aerial image capture platform
US11914370B2 (en) System and method for providing easy-to-use release and auto-positioning for drone applications
US20220091607A1 (en) Systems and methods for target tracking
US11632497B2 (en) Systems and methods for controlling an image captured by an imaging device
US20190373173A1 (en) Multi-gimbal assembly
CN105242685B (zh) 一种伴飞无人机航拍系统及方法
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
US20210112194A1 (en) Method and device for taking group photo
WO2020233682A1 (zh) 一种自主环绕拍摄方法、装置以及无人机
WO2022056683A1 (zh) 视场确定方法、视场确定装置、视场确定系统和介质
WO2020209167A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2022109860A1 (zh) 跟踪目标对象的方法和云台
WO2022188151A1 (zh) 影像拍摄方法、控制装置、可移动平台和计算机存储介质
WO2020225979A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2021133918A1 (en) Aerial camera device, systems, and methods
WO2021195944A1 (zh) 可移动平台的控制方法、装置、可移动平台及存储介质
US20240140625A1 (en) Techniques For Previewing And Composing Panoramic Photographs Using UAV Navigation Cameras
WO2023039752A1 (zh) 无人飞行器及其控制方法、系统和存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20953544

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20953544

Country of ref document: EP

Kind code of ref document: A1