WO2021037286A1 - 一种图像处理方法、装置、设备及存储介质 - Google Patents

一种图像处理方法、装置、设备及存储介质 Download PDF

Info

Publication number
WO2021037286A1
WO2021037286A1 PCT/CN2020/123056 CN2020123056W WO2021037286A1 WO 2021037286 A1 WO2021037286 A1 WO 2021037286A1 CN 2020123056 W CN2020123056 W CN 2020123056W WO 2021037286 A1 WO2021037286 A1 WO 2021037286A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
lens
display information
width
height
Prior art date
Application number
PCT/CN2020/123056
Other languages
English (en)
French (fr)
Inventor
李昭早
Original Assignee
深圳市道通智能航空技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市道通智能航空技术有限公司 filed Critical 深圳市道通智能航空技术有限公司
Publication of WO2021037286A1 publication Critical patent/WO2021037286A1/zh
Priority to US17/652,383 priority Critical patent/US12126938B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen

Definitions

  • the embodiments of the present invention relate to image processing technology, and in particular to an image processing method, device, device, and storage medium.
  • drones payload is generally a dual-lens camera composed of infrared thermal imaging and visible light.
  • the images captured by the dual-lens camera can be displayed on the user terminal that establishes a communication connection with the drone.
  • infrared thermal imaging and visible light images In order to achieve simultaneous viewing of infrared thermal imaging and visible light images in the drone's flight area.
  • Figures 1 and 2 respectively show examples of drone image display in the prior art, such as Figure 1 and Figure 2 show the side-by-side display of the image and the picture-in-picture display of the image, respectively.
  • the visible light image may be reduced.
  • the displayed image effect affects the judgment of the flying user; for the picture-in-picture display mode, one of the two pictures is displayed in full screen form, and the other is displayed in a small window next to it.
  • This display method is only suitable for simple The preview cannot be used as an accurate measurement.
  • the invention provides an image processing method, device, equipment and storage medium, which can realize a dual-lens camera to present a picture-in-picture display according to an accurate real scene ratio.
  • an embodiment of the present invention provides an image processing method, which includes:
  • the target display information of the second lens is determined according to the field angle information and the reference display information set by the first lens.
  • an image processing device which includes:
  • An acquiring unit configured to acquire a first image and a second image, the first image and the second image are respectively captured and sent by the first lens and the second lens provided on the drone;
  • the acquiring unit is used to acquire the field angle information currently possessed by the first lens and the second lens;
  • the determining unit is configured to determine the target display information of the second lens according to the information of each field of view and the reference display information set by the first lens.
  • an embodiment of the present invention also provides a computer-readable storage medium on which a computer program is stored.
  • the computer program is executed by a processor, the image processing method as provided in any embodiment of the present invention is implemented.
  • an embodiment of the present invention also provides a terminal device, which includes:
  • the main body a display screen provided in the main body, and a processor and a memory provided in the main body, where a computer program that can run on the processor is stored in the memory, and when the processor executes the computer program, it is implemented as in any embodiment of the present invention Provided image processing method.
  • the embodiments of the present invention provide an image processing method, device, equipment, and storage medium, by acquiring the first image and the second image captured and sent by the first lens and the second lens set on the drone, and acquiring The first lens and the second lens currently possess the field of view information, and the target display information of the second lens is determined based on the field of view information and the reference display information set by the first lens.
  • the dual-lens camera can present the picture-in-picture display mode according to the precise ratio, and can avoid the change of the parameters such as the field of view of the lens due to the lens, and the picture-in-picture display is not displayed in the real scene ratio. Problem, so as to achieve the effect of the same picture-in-picture image overlay ratio.
  • FIG. 1 is a schematic diagram of side-by-side display of images of dual-lens cameras in the prior art
  • FIG. 2 is a schematic diagram of a picture-in-picture display of images of a dual-lens camera in the prior art
  • Fig. 3 is a flowchart of an image processing method in the first embodiment of the present invention.
  • Embodiment 4 is a schematic diagram of horizontal viewing angle field and image height and width in Embodiment 1 of the present invention.
  • FIG. 5 is a schematic diagram of the vertical viewing angle field and the image height and width in the first embodiment of the present invention.
  • FIG. 6 is a schematic diagram of a picture-in-picture superimposed frame in the first embodiment of the present invention.
  • FIG. 7(a) is a schematic diagram of superimposing the first image and the second image in the first embodiment of the present invention.
  • Figure 7(b) is another schematic diagram of superimposing the first image and the second image in the first embodiment of the present invention.
  • FIG. 8 is a schematic diagram of the structure of an image processing device in the second embodiment of the present invention.
  • FIG. 9 is a schematic diagram of the structure of the image processing device in the third embodiment of the present invention.
  • Fig. 10 is a schematic diagram of the structure of an image processing device in the fourth embodiment of the present invention.
  • words such as “optionally” or “exemplarily” are used to represent examples, illustrations, or illustrations. Any embodiment or design solution described as “optional” or “exemplary” in the embodiments of the present invention should not be construed as being more preferable or advantageous than other embodiments or design solutions. To be precise, the use of words such as “optionally” or “exemplary” is intended to present related concepts in a specific manner.
  • the present invention can be applied to the use scene of the drone, as well as the terminal device that is connected to the drone and has a display screen.
  • the terminal device can be a computer, a mobile phone terminal or other devices with a display screen.
  • the first image captured by the first lens and the second image captured by the second lens are corrected and displayed according to the real scene ratio.
  • Fig. 3 is a flowchart of an image processing method provided by Embodiment 1 of the present invention.
  • the execution body of the method is a terminal device communicating with the drone, which specifically includes the following steps:
  • Step 310 Acquire a first image and a second image, the first image and the second image are respectively captured and sent by the first lens and the second lens set on the drone.
  • the first lens and the second lens are arranged on the drone to form a dual-lens camera of the drone, and the first lens and the second lens are arranged in a horizontal parallel manner, so that the first lens and the second lens adopt the same center of view Perform image capture.
  • the first lens and the second lens may be different types of lenses.
  • the first lens may be a thermal imaging lens
  • the second lens may be a visible light lens, which is not limited in the embodiment of the present invention.
  • the first image and the second image can be sent to a device with a display screen by means of wireless transmission or the like.
  • the image center point of the first image captured by the first lens is the same as the second lens captured by the second lens.
  • the image center point of the image coincides, that is, the first image and the second image are presented in a picture-in-picture manner.
  • Step 320 Acquire current field angle information of the first lens and the second lens.
  • the field of view information currently possessed by the first lens and the second lens is the included angle of the maximum observable range of the first lens and the second lens.
  • the field angle information may include the horizontal field angle of the first lens, the vertical field angle of the first lens, the horizontal field angle of the second lens, and the vertical field angle of the second lens.
  • the field of view information can be displayed on the display screen of the device by manual input or the like.
  • Step 330 Determine the target display information of the second lens according to the field angle information and the reference display information set by the first lens.
  • the reference display information of the first lens includes the image width of the first image, the image height of the first image, and the target display information of the second lens includes the image width of the second image, the second image
  • the image height of the image, that is, determining the target display information of the second lens includes determining the image width of the second image, and determining the image height of the second image.
  • the embodiment of the present invention provides an implementation manner for determining the image width of the second image according to the horizontal field angle of the first lens, the horizontal field angle of the second lens, and the image width of the first image, Determine the image width of the second image.
  • the embodiment of the present invention provides an implementation manner for determining the image height of the second image according to the vertical field angle of the first lens, the vertical field angle of the second lens, and the image height of the first image, Determine the image height of the second image.
  • the embodiment of the present invention determines the target display information of the second lens by introducing a zoom factor.
  • an embodiment of the present invention provides an implementation manner of determining the image width of the second image through the following formula:
  • a is the horizontal zoom factor.
  • an embodiment of the present invention provides an implementation manner of determining the image width of the second image through the following formula:
  • b is the vertical zoom factor.
  • the zoom factor when the field of view information, image height and other parameters of the dual-lens camera composed of the first lens and the second lens change, these parameters can be dynamically adjusted at any time, thereby avoiding The lens causes the problem that the picture-in-picture is not displayed according to the actual ratio, so as to achieve the effect of the same superimposed ratio of the picture-in-picture image.
  • the embodiment of the present invention also provides a method of displaying the first image and the second image on the screen according to the reference display information and the target display information.
  • the first image is displayed with the image width and image height in the reference display information
  • the second display layer on the display screen is displayed with the image width and image height in the target display information. image.
  • the second display layer is located above the first display layer, as shown in Figure 7(a).
  • the first display layer is located above the second display layer, as shown in Figure 7(b).
  • the image center point of the first image displayed on the first display layer coincides with the image center point of the second image displayed on the second display layer . That is, the first image and the second image present a picture-in-picture superimposition on the screen and the center point of the two images is at the same point.
  • the embodiment of the present invention provides an image processing method, specifically acquiring a first image and a second image, where the first image and the second image are respectively captured and sent by the first lens and the second lens set on the drone , After acquiring the field angle information currently possessed by the first lens and the second lens, the target display information of the second lens is determined according to the field angle information and the reference display information set by the first lens.
  • the solution provided by the embodiment of the present invention can not only realize that the dual-lens camera presents the picture-in-picture display mode according to the precise ratio, but also can avoid the reason of the lens, such as the view of the lens.
  • the field angle and other parameters change, which leads to the problem that the picture-in-picture is not displayed according to the real scene ratio, so as to achieve the effect of the same superimposed ratio of the picture-in-picture image.
  • the image processing apparatus provided in the embodiment of the present invention can execute the image processing method provided in the first embodiment of the present invention, and has functional modules and beneficial effects corresponding to the execution method.
  • the embodiment of the present invention may divide the image processing apparatus into functional modules according to the above-mentioned embodiments.
  • each functional module may be divided corresponding to each function, or two or more functions may be integrated into one processing module.
  • the above-mentioned integrated modules can be implemented in the form of hardware or software function modules. It should be noted that the division of modules in the embodiment of the present invention is illustrative, and is only a logical function division, and there may be other division methods in actual implementation.
  • FIG. 8 shows a possible structural schematic diagram of the image processing apparatus involved in the first embodiment.
  • the image processing apparatus 80 may include: an acquisition unit 801, a determination unit 802.
  • the obtaining unit 801 is used to support the image obtaining device to perform step 310 and step 320 in FIG. 3; the determining unit 802 is used to support the image processing device to perform step 330 in FIG. 3.
  • the image processing apparatus provided in the embodiment of the present invention can execute the image processing method provided in the first embodiment of the present invention, and has functional modules and beneficial effects corresponding to the execution method.
  • FIG. 9 shows a schematic diagram of a possible structure of the image processing device 90 involved in the first embodiment.
  • the processing module 901 is used to support the image processing apparatus to perform steps 310, 320, 330 in FIG. 3 and/or other processes used in the technology described herein.
  • the communication module 902 is used to support communication between the image processing device and other network entities, for example, communication with the drone involved in the embodiment of the present invention.
  • the storage module 903 is used to store program codes and data of the image processing device.
  • the processing module 901 may be a processor or a controller, for example, a central processing unit (CPU), a general-purpose processor, a digital signal processor (Digital Signal Processor, DSP), and an application-specific integrated circuit (Application-Specific Integrated Circuit). Integrated Circuit (ASIC), Field Programmable Gate Array (FPGA) or other programmable logic devices, transistor logic devices, hardware components, or any combination thereof. It can implement or execute various exemplary logical blocks, modules, and circuits described in conjunction with the disclosure of this application.
  • the processor may also be a combination for realizing computing functions, for example, including a combination of one or more microprocessors, a combination of a DSP and a microprocessor, and so on.
  • FIG. 10 is a schematic structural diagram of a terminal device provided by Embodiment 4 of the present invention.
  • the terminal device 100 includes a processor 1000, a memory 1001, an input device 1002, and an output device 1003; The number can be one or more.
  • one processor 1000 is taken as an example; the processor 1000, the memory 1001, the input device 1002, and the output device 1003 in the terminal device can be connected by a bus or other means. Take bus connection as an example.
  • the memory 1001 can be used to store software programs, computer-executable programs, and modules, such as program instructions/modules corresponding to the image processing method in the embodiment of the present invention (for example, the processing module in the image processing device). 901, communication module 902, and storage module 903).
  • the processor 1000 executes various functional applications and data processing of the image processing apparatus by running the software programs, instructions, and modules stored in the memory 1001, that is, realizes the above-mentioned image processing method.
  • the memory 1001 may mainly include a program storage area and a data storage area.
  • the program storage area may store an operating system and an application program required by at least one function; the data storage area may store data created according to the use of the terminal, and the like.
  • the memory 1001 may include a high-speed random access memory, and may also include a non-volatile memory, such as at least one magnetic disk storage device, a flash memory device, or other non-volatile solid-state storage devices.
  • the memory 1001 may further include a memory remotely provided with respect to the processor 1000, and these remote memories may be connected to the device/terminal/server through a network. Examples of the aforementioned networks include, but are not limited to, the Internet, corporate intranets, local area networks, mobile communication networks, and combinations thereof.
  • the input device 1002 can be used to receive inputted numeric or character information, and generate key signal inputs related to user settings and function control of the image processing device.
  • the output device 1003 may include a display device such as a display screen.
  • the fifth embodiment of the present invention also provides a storage medium containing computer-executable instructions, which are used to execute an image processing method when the computer-executable instructions are executed by a computer processor, and the method includes:
  • the target display information of the second lens is determined according to the field angle information and the reference display information set by the first lens.
  • a storage medium containing computer-executable instructions provided by an embodiment of the present invention is not limited to the method operations described above, and can also execute the image display processing method provided by any embodiment of the present invention. Related operations.
  • the present invention can be implemented by software and necessary general-purpose hardware, of course, it can also be implemented by hardware, but in many cases the former is a better implementation. .
  • the technical solution of the present invention essentially or the part that contributes to the prior art can be embodied in the form of a software product.
  • the computer software product can be stored in a computer-readable storage medium, such as a computer floppy disk.
  • ROM Read-Only Memory
  • RAM Random Access Memory
  • FLASH Flash memory
  • hard disk or optical disk etc., including several instructions to make a computer device (which can be a personal computer) , A server, or a network device, etc.) execute the method described in each embodiment of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)

Abstract

一种图像处理方法、装置、设备及存储介质。其中,该方法包括:获取第一图像和第二图像,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送;获取第一镜头及第二镜头当前具备的视场角信息;根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。通过这样的图像处理方式,可以实现双光相机按精确比例呈现画中画显示方式,而且可以避免因镜头原因,如镜头的视场角等参数变化,而导致画中画不按实景比例显示的问题,从而达到画中画图像叠加比例一致的效果。

Description

一种图像处理方法、装置、设备及存储介质 技术领域
本发明实施例涉及图像处理技术,尤其涉及一种图像处理方法、装置、设备及存储介质。
背景技术
无人机的一种重要用途就是进行航拍侦查,其载荷一般为由红外热成像和可见光组成的双光相机,双光相机捕获的图像可以显示在与无人机建立通信连接的用户终端上,以实现同时看到无人机飞行区域内的红外热成像和可见光图像。
现有技术中用户终端上常见的双光相机图像的显示方式有并排显示和画中画显示两种,图1和图2分别给出了现有技术中无人机图像显示的示例图,如图1和图2所示,分别给出了图像的并排显示以及图像的画中画显示。
然而,在现有的两种显示方式中,对于并排显示方式来说,由于红外热成像镜头与可见光镜头的视场角(angle of view,FOV)相差较大,可见光图像有可能被缩小,其呈现出的图像效果影响飞行用户的判断;对于画中画显示方式来说,两幅画面中的一个以全屏形式显示,另一个以很小的窗口在旁边显示,这种显示方式只适合进行简单的预览而不能作为精确测量被使用。
发明内容
本发明提供一种图像处理方法、装置、设备及存储介质,能够实现双光相机按精确实景比例呈现画中画显示。
第一方面,本发明实施例提供了一种图像处理方法,该方法包括:
获取第一图像和第二图像,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送;
获取第一镜头及第二镜头当前具备的视场角信息;
根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。
第二方面,本发明实施例还提供了一种图像处理装置,该装置包括:
获取单元,用于获取第一图像和第二图像,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送;
获取单元,用于获取第一镜头及第二镜头当前具备的视场角信息;
确定单元,用于根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。
第三方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现如本发明任意实施例提供的图像处理方法。
第四方面,本发明实施例还提供了一种终端设备,该设备包括:
主体、设于主体的显示屏以及设于主体内的处理器和存储器,其中,存储器上存储有可在处理器上运行的计算机程序,当处理器执行计算机程序时,实现如本发明任意实施例提供的图像处理方法。
本发明实施例提供了一种图像处理方法、装置、设备及存储介质,通过获取由设置在无人机上的第一镜头及第二镜头分别捕获并发送的第一图像和第二图像,并获取第一镜头及第二镜头当前具备的视场角信息,根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。通过这样 的图像处理方式,可以实现双光相机按精确比例呈现画中画显示方式,而且可以避免因镜头原因,如镜头的视场角等参数变化,而导致画中画不按实景比例显示的问题,从而达到画中画图像叠加比例一致的效果。
附图说明
图1为现有技术中双光相机图像的并排显示示意图;
图2为现有技术中双光相机图像的画中画显示示意图;
图3是本发明实施例一中的图像处理方法流程图;
图4是本发明实施例一中的水平视角场与图像高宽示意图;
图5是本发明实施例一中的垂直视角场与图像高宽示意图;
图6是本发明实施例一中的画中画叠加框示意图;
图7(a)是本发明实施例一中的第一图像与第二图像叠加示意图;
图7(b)是本发明实施例一中的第一图像与第二图像的另一种叠加示意图;
图8是本发明实施例二中的图像处理装置结构示意图;
图9是本发明实施例三中的图像处理装置结构示意图;
图10是本发明实施例四中的图像处理装置结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
另外,在本申请实施例中,“可选地”或者“示例性地”等词用于表示作例子、例证或说明。本发明实施例中被描述为“可选地”或者“示例性地”的任 何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“可选地”或者“示例性地”等词旨在以具体方式呈现相关概念。
本发明可以应用于无人机使用场景下,以及与无人机通信连接且具有显示屏幕的终端设备中,该终端设备可以为电脑、手机终端或者其他具有显示屏幕的设备。基于终端设备的显示屏幕分别对第一镜头、第二镜头的视场角信息以及第一镜头的基准显示信息进行设置,并通过第一公式和第二公式精确计算出第二镜头的目标显示信息,实现第一镜头捕获的第一图像和第二镜头捕获的第二图像按实景比例校正并显示。
实施例一
图3为本发明实施例一提供的图像处理方法的流程图,该方法的执行主体为与无人机通信连接的终端设备,具体包括如下步骤:
步骤310、获取第一图像和第二图像,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送。
第一镜头和第二镜头设置在无人机上组成无人机双光相机,且第一镜头和第二镜头以水平平行的方式进行设置,从而实现第一镜头与第二镜头采用相同的视角中心进行图像捕获。
其中,第一镜头和第二镜头可以为不同类型的镜头,如第一镜头可以为热成像镜头,第二镜头可以为可见光镜头,本发明实施例对此不作限定。
第一镜头与第二镜头分别捕获到第一图像和第二图像之后,可通过无线传输等方式将第一图像和第二图像发送至具有显示屏幕的设备上。
需要说明的是,本发明实施例仅是示例性地说明第一图像和第二图像的传 输方式,并不对此进行限定。
并且,由于第一镜头与第二镜头是以水平平行的方式进行设置,进而以相同的视角中心进行图像捕获,这样第一镜头捕获的第一图像的图像中心点与第二镜头捕获的第二图像的图像中心点重合,即第一图像与第二图像以画中画的方式呈现。
步骤320、获取第一镜头及第二镜头当前具备的视场角信息。
第一镜头及第二镜头当前具备的视场角信息为第一镜头和第二镜头可观测最大范围的夹角。
示例性地,该视场角信息可以包括第一镜头的水平视场角、第一镜头的垂直视场角、第二镜头的水平视场角以及第二镜头的垂直视场角。
可选地,该视场角信息可以通过手动输入等方式显示在设备的显示屏幕上。
步骤330、根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。
可选地,在本发明实施例中,第一镜头的基准显示信息包括第一图像的图像宽度、第一图像的图像高度,第二镜头的目标显示信息包括第二图像的图像宽度、第二图像的图像高度,也即确定第二镜头的目标显示信息包括确定第二图像的图像宽度,以及确定第二图像的图像高度。
示例性地,本发明实施例提供了一种确定第二图像的图像宽度的实现方式为,根据第一镜头的水平视场角、第二镜头的水平视场角、第一图像的图像宽度,确定第二图像的图像宽度。
如图4所示,在水平方向上,假设第一镜头的水平视场角为W1_FOV、第二镜头的水平视场角为W2_FOV、第一图像的图像宽度为W1、第二图像的图像宽度 为W2、第一镜头与第二镜头到拍摄物体之间的距离为F,则可以确定
Figure PCTCN2020123056-appb-000001
Figure PCTCN2020123056-appb-000002
进而通过公式(1)和公式(2)可以得到
Figure PCTCN2020123056-appb-000003
示例性地,本发明实施例提供了一种确定第二图像的图像高度的实现方式为,根据第一镜头的垂直视场角、第二镜头的垂直视场角、第一图像的图像高度,确定第二图像的图像高度。
如图5所示,在垂直方向上,假设第一镜头的垂直视场角为H1_FOV、第二镜头的垂直视场角为H2_FOV、第一图像的图像高度为H1、第二图像的图像高度为H2、第一镜头与第二镜头到拍摄物体之间的距离为F,则可以确定
Figure PCTCN2020123056-appb-000004
Figure PCTCN2020123056-appb-000005
进而通过公式(4)和公式(5)可以得到
Figure PCTCN2020123056-appb-000006
根据上述公式(4)和公式(5),可以通过精确计算的方式,实现当双光相机捕获的图像以画中画方式呈现时,能够按照精确实景比例呈现画中画图像。
由于第一镜头捕获的第一图像与第二镜头捕获的第二图像以画中画方式呈 现,当第一图像或第二图像的分辨率过大,如图6所示,需要对第一图像或第二图像进行图像缩放来达到画中画叠加前的分辨率,或者,第一镜头和第二镜头发生形变,如在经过长期使用之后,第一镜头和第二镜头的图像高度、图像宽度、或者视场角信息发生变化,又或者,第一镜头和第二镜头中的任一镜头为变焦镜头时,本发明实施例通过引入缩放倍数的方式来确定第二镜头的目标显示信息。
示例性地,本发明实施例提供了一种实现方式为,通过以下公式确定第二图像的图像宽度:
Figure PCTCN2020123056-appb-000007
其中,a为水平缩放倍数。
示例性地,本发明实施例提供了一种实现方式为,通过以下公式确定第二图像的图像宽度:
Figure PCTCN2020123056-appb-000008
其中,b为垂直缩放倍数。
通过引入缩放倍数的方式,可以在当由第一镜头和第二镜头组成的双光相机的视场角信息、图像高度等参数发生变化时,能够随时动态地对这些参数进行调整,进而避免因为镜头原因导致画中画不按实景比例显示的问题,从而达到画中画图像叠加比例一致的效果。
在确定第二镜头的目标显示信息之后,本发明实施例还提供一种方式为根据基准显示信息及目标显示信息,在屏幕上显示第一图像和第二图像。
例如,在终端设备显示屏幕的第一显示层以基准显示信息中的图像宽度和图像高度显示第一图像,在显示屏幕的第二显示层以目标显示信息中的图像宽度和图像高度显示第二图像。
当基准显示信息中的图像宽度和图像高度大于目标显示信息中的图像宽度和图像高度时,第二显示层位于第一显示层之上,如图7(a)所示。当基准显示信息中的图像宽度和图像高度小于目标显示信息中的图像宽度和图像高度时,第一显示层位于第二显示层之上,如图7(b)所示。
并且,由于第一镜头与第二镜头是以水平平行的方式设置的,因而,该第一显示层显示的第一图像的图像中心点与第二显示层显示的第二图像的图像中心点重合。即第一图像和第二图像在屏幕上呈现出画中画叠加且两个图像的中心点在同一个点的显示方式。
本发明实施例提供了一种图像处理方式,具体为获取第一图像和第二图像,其中,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送,获取第一镜头及第二镜头当前具备的视场角信息后,根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。相比于现有技术中,双光相机的画面显示方式,本发明实施例提供的方案不仅可以实现双光相机按精确比例呈现画中画显示方式,而且可以避免因镜头原因,如镜头的视场角等参数变化,而导致画中画不按实景比例显示的问题,从而达到画中画图像叠加比例一致的效果。
实施例二
本发明实施例所提供的图像处理装置可以执行本发明实施例一所提供的图像处理方法,具备执行方法相应的功能模块和有益效果。
本发明实施例可以根据上述实施例一对图像处理装置进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本发明实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图8示出了上述实施例一中所涉及的图像处理装置的一种可能的结构示意图,图像处理装置80可以包括:获取单元801,确定单元802。获取单元801用于支持图像获取装置执行图3中的步骤310、步骤320;确定单元802用于支持图像处理装置执行图3中的步骤330。
实施例三
本发明实施例所提供的图像处理装置可以执行本发明实施例一所提供的图像处理方法,具备执行方法相应的功能模块和有益效果。
在采用集成的单元的情况下,图9示出了上述实施例一中所涉及的图像处理装置90的一种可能的结构示意图。例如,处理模块901用于支持图像处理装置执行图3中的过步骤310、320、330和/或用于本文所描述的技术的其它过程。通信模块902用于支持图像处理装置与其他网络实体的通信,例如与本发明实施例中涉及到的无人机之间的通信。存储模块903用于存储图像处理装置的程序代码和数据。
其中,处理模块901可以是处理器或控制器,例如可以是中央处理器(Central Processing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-Specific Integrated  Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。
实施例四
图10为本发明实施例四提供的一种终端设备结构示意图,如图10所示,该终端设备100包括处理器1000、存储器1001、输入装置1002、输出装置1003;终端设备中处理器1000的数量可以是一个或多个,图10中以一个处理器1000为例;终端设备中的处理器1000、存储器1001、输入装置1002、输出装置1003可以通过总线或其他方式连接,图10中以通过总线连接为例。
存储器1001作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的图像处理方法对应的程序指令/模块(例如,图像处理装置中的处理模块901、通信模块902和存储模块903)。处理器1000通过运行存储在存储器1001中的软件程序、指令以及模块,从而执行图像处理装置的各种功能应用以及数据处理,即实现上述的图像处理方法。
存储器1001可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器1001可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器1001可进一步包括相对于处理器1000远程设置的存储器,这些远程存储器可以通过网络连接至设备/终端/服务器。 上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置1002可用于接收输入的数字或字符信息,以及产生与图像处理装置的用户设置以及功能控制有关的键信号输入。输出装置1003可包括显示屏等显示设备。
实施例五
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种图像处理方法,该方法包括:
获取第一图像和第二图像,第一图像和第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送;
获取第一镜头及第二镜头当前具备的视场角信息;
根据各视场角信息以及第一镜头设定的基准显示信息,确定第二镜头的目标显示信息。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的图像显处理方法中的相关操作.
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器 (Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述图像处理装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (18)

  1. 一种图像处理方法,用于与无人机通信连接的终端设备,其特征在于,包括:
    获取第一图像和第二图像,所述第一图像和所述第二图像分别由设置在所述无人机上的第一镜头及第二镜头捕获并发送;
    获取所述第一镜头及第二镜头当前具备的视场角信息;
    根据各所述视场角信息以及所述第一镜头设定的基准显示信息,确定所述第二镜头的目标显示信息。
  2. 根据权利要求1所述的图像处理方法,其特征在于,所述视场角信息包括第一镜头的水平视场角、第一镜头的垂直视场角、第二镜头的水平视场角以及第二镜头的垂直视场角;
    所述基准显示信息包括第一图像的图像宽度、第一图像的图像高度;
    所述目标显示信息包括第二图像的图像宽度、第一图像的图像高度。
  3. 根据权利要求1或2所述的图像处理方法,其特征在于,所述根据各所述视场角信息以及所述第一镜头设定的基准显示信息,确定所述第二镜头的目标显示信息,包括:
    根据所述第一镜头的水平视场角、所述第二镜头的水平视场角、所述第一图像的图像宽度,确定所述第二图像的图像宽度;
    根据所述第一镜头的垂直视场角、所述第二镜头的垂直视场角、所述第一图像的图像高度,确定所述第二图像的图像高度;
    将所述第二图像的图像宽度及图像高度确定为所述第二镜头的目标显示信息。
  4. 根据权利要求3所述的图像处理方法,其特征在于,所述根据所述第一 镜头的水平视场角、所述第二镜头的水平视场角、所述第一图像的图像宽度,确定所述第二图像的图像宽度,包括:
    通过以下公式确定所述第二镜头的图像宽度:
    Figure PCTCN2020123056-appb-100001
    其中,W2为所述第二图像的图像宽度,W1为所述第一图像的图像宽度,W1_FOV为所述第一镜头的水平视场角,W2_FOV为所述第二镜头的水平视场角,a为水平缩放倍数。
  5. 根据权利要求3所述的图像处理方法,其特征在于,所述根据所述第一镜头的垂直视场角、所述第二镜头的垂直视场角、所述第一图像的图像高度,确定所述第二图像的图像高度,包括:
    通过以下公式确定所述第二镜头的图像高度:
    Figure PCTCN2020123056-appb-100002
    其中,H2为所述第二图像的图像高度,H1为所述第一图像的图像高度,H2_FOV为所述第二镜头的垂直视场角,H1_FOV为所述第一镜头的垂直视场角,b为垂直缩放倍数。
  6. 根据权利要求1或2所述的图像处理方法,其特征在于,该方法还包括:
    根据所述基准显示信息及所述目标显示信息,在所述终端设备的屏幕上显示所述第一图像和所述第二图像。
  7. 根据权利要求6所述的图像处理方法,其特征在于,所述根据所述基准显示信息及所述目标显示信息,在所述终端设备的屏幕上显示所述第一图像和 所述第二图像,包括:
    在所述屏幕的第一显示层,以所述基准显示信息中的图像宽度和图像高度显示所述第一图像;
    在所述屏幕的第二显示层,以所述目标显示信息中的图像宽度和图像高度显示所述第二图像,其中,所述第一显示层显示的第一图像的图像中心点与所述第二显示层显示的第二图像的图像中心点重合;
    当所述基准显示信息中的图像宽度和图像高度大于所述目标显示信息中的图像宽度和图像高度时,所述第二显示层位于所述第一显示层之上;当所述基准显示信息中的图像宽度和图像高度小于所述目标显示信息中的图像宽度和图像高度时,所述第一显示层位于所述第二显示层之上。
  8. 根据权利要求1-7中任一项所述的图像处理方法,其特征在于,所述第一镜头为热成像镜头,所述第二镜头为可见光镜头。
  9. 一种图像处理装置,其特征在于,包括:
    获取单元,用于获取第一图像和第二图像,所述第一图像和所述第二图像分别由设置在无人机上的第一镜头及第二镜头捕获并发送;
    获取单元,用于获取所述第一镜头及第二镜头当前具备的视场角信息;
    确定单元,用于根据各所述视场角信息以及所述第一镜头设定的基准显示信息,确定所述第二镜头的目标显示信息。
  10. 根据权利要求9所述的图像处理装置,其特征在于,所述视场角信息包括第一镜头的水平视场角、第一镜头的垂直视场角、第二镜头的水平视场角以及第二镜头的垂直视场角;
    所述基准显示信息包括第一图像的图像宽度、第一图像的图像高度;
    所述目标显示信息包括第二图像的图像宽度、第一图像的图像高度。
  11. 根据权利要求9或10所述的图像处理装置,其特征在于,所述确定单元,用于根据所述第一镜头的水平视场角、所述第二镜头的水平视场角、所述第一图像的图像宽度,确定所述第二图像的图像宽度;
    以及,根据所述第一镜头的垂直视场角、所述第二镜头的垂直视场角、所述第一图像的图像高度,确定所述第二图像的图像高度;
    并将所述第二图像的图像宽度及图像高度确定为所述第二镜头的目标显示信息。
  12. 根据权利要求11所述的图像处理装置,其特征在于,所述确定单元,用于通过以下公式确定所述第二镜头的图像宽度:
    Figure PCTCN2020123056-appb-100003
    其中,W2为所述第二图像的图像宽度,W1为所述第一图像的图像宽度,W1_FOV为所述第一镜头的水平视场角,W2_FOV为所述第二镜头的水平视场角,a为水平缩放倍数。
  13. 根据权利要求11所述的图像处理装置,其特征在于,所述确定单元,用于通过以下公式确定所述第二镜头的图像高度:
    Figure PCTCN2020123056-appb-100004
    其中,H2为所述第二图像的图像高度,H1为所述第一图像的图像高度,H2_FOV为所述第二镜头的垂直视场角,H1_FOV为所述第一镜头的垂直视场角,b为垂直缩放倍数。
  14. 根据权利要求9或10所述的图像处理装置,其特征在于,所述装置还包括:显示单元;
    所述显示单元,用于根据所述基准显示信息及所述目标显示信息,在所述图像处理装置的屏幕上显示所述第一图像和所述第二图像。
  15. 根据权利要求14所述的图像处理装置,其特征在于,所述显示单元,用于在所述屏幕的第一显示层,以所述基准显示信息中的图像宽度和图像高度显示所述第一图像;
    在所述屏幕的第二显示层,以所述目标显示信息中的图像宽度和图像高度显示所述第二图像,其中,所述第一显示层显示的第一图像的图像中心点与所述第二显示层显示的第二图像的图像中心点重合;
    当所述基准显示信息中的图像宽度和图像高度大于所述目标显示信息中的图像宽度和图像高度时,所述第二显示层位于所述第一显示层之上;当所述基准显示信息中的图像宽度和图像高度小于所述目标显示信息中的图像宽度和图像高度时,所述第一显示层位于所述第二显示层之上。
  16. 根据权利要求9-15任一项所述的图像处理方法,其特征在于,所述第一镜头为热成像镜头,所述第二镜头为可见光镜头。
  17. 一种终端设备,包括主体、设于所述主体的显示屏以及设于所述主体内的处理器和存储器,所述存储器上存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1-8中任一项所述的图像处理方法。
  18. 一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-8中任一项所述的图像处理 方法。
PCT/CN2020/123056 2019-08-29 2020-10-23 一种图像处理方法、装置、设备及存储介质 WO2021037286A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/652,383 US12126938B2 (en) 2019-08-29 2022-02-24 Image processing method and apparatus, device and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910810698.6A CN110519540A (zh) 2019-08-29 2019-08-29 一种图像处理方法、装置、设备及存储介质
CN201910810698.6 2019-08-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/652,383 Continuation US12126938B2 (en) 2019-08-29 2022-02-24 Image processing method and apparatus, device and storage medium

Publications (1)

Publication Number Publication Date
WO2021037286A1 true WO2021037286A1 (zh) 2021-03-04

Family

ID=68628297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/123056 WO2021037286A1 (zh) 2019-08-29 2020-10-23 一种图像处理方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN110519540A (zh)
WO (1) WO2021037286A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110519540A (zh) * 2019-08-29 2019-11-29 深圳市道通智能航空技术有限公司 一种图像处理方法、装置、设备及存储介质
WO2022140896A1 (zh) * 2020-12-28 2022-07-07 深圳元戎启行科技有限公司 多视场角的图像获取方法、装置、计算机设备和存储介质
CN113068019B (zh) * 2021-03-17 2023-02-03 杭州海康消防科技有限公司 双光相机校准设备、方法、电子设备及存储介质
CN113126942B (zh) * 2021-03-19 2024-04-30 北京城市网邻信息技术有限公司 一种封面图片的显示方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143788A1 (ko) * 2009-06-10 2010-12-16 건국대학교 산학협력단 듀얼 카메라를 이용한 모니터링 시스템 및 그 방법
CN103292909A (zh) * 2013-03-22 2013-09-11 珠海一多监测科技有限公司 单窗口双通道视频监控系统
CN106184787A (zh) * 2016-07-14 2016-12-07 科盾科技股份有限公司北京分公司 具有辅助驾驶系统的飞行器及其起降及避免碰撞的方法
CN107071291A (zh) * 2016-12-28 2017-08-18 深圳众思科技有限公司 图像处理方法、装置及电子设备
CN110083180A (zh) * 2019-05-22 2019-08-02 深圳市道通智能航空技术有限公司 云台控制方法、装置、控制终端及飞行器系统
CN110519540A (zh) * 2019-08-29 2019-11-29 深圳市道通智能航空技术有限公司 一种图像处理方法、装置、设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018072179A1 (zh) * 2016-10-20 2018-04-26 深圳达闼科技控股有限公司 一种基于虹膜识别的图像预览方法及装置
CN106506941A (zh) * 2016-10-20 2017-03-15 深圳市道通智能航空技术有限公司 图像处理的方法及装置、飞行器
CN107976257B (zh) * 2016-10-21 2019-03-22 杭州海康威视数字技术股份有限公司 一种红外热成像仪的图像显示方法、装置及红外热成像仪
WO2019084825A1 (zh) * 2017-10-31 2019-05-09 深圳市大疆创新科技有限公司 图像处理方法、设备及无人机
CN207283679U (zh) * 2017-11-05 2018-04-27 信利光电股份有限公司 一种多视场角多摄像头模组和移动终端
CN108510541B (zh) * 2018-03-28 2020-09-25 联想(北京)有限公司 一种信息调节方法、电子设备和计算机可读存储介质
CN109151402B (zh) * 2018-10-26 2022-10-11 深圳市道通智能航空技术股份有限公司 航拍相机的图像处理方法、图像处理系统及无人机
CN112954218A (zh) * 2019-03-18 2021-06-11 荣耀终端有限公司 一种多路录像方法及设备
CN110012223A (zh) * 2019-03-22 2019-07-12 深圳技威时代科技有限公司 一种基于图像裁剪实现云台转动的方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010143788A1 (ko) * 2009-06-10 2010-12-16 건국대학교 산학협력단 듀얼 카메라를 이용한 모니터링 시스템 및 그 방법
CN103292909A (zh) * 2013-03-22 2013-09-11 珠海一多监测科技有限公司 单窗口双通道视频监控系统
CN106184787A (zh) * 2016-07-14 2016-12-07 科盾科技股份有限公司北京分公司 具有辅助驾驶系统的飞行器及其起降及避免碰撞的方法
CN107071291A (zh) * 2016-12-28 2017-08-18 深圳众思科技有限公司 图像处理方法、装置及电子设备
CN110083180A (zh) * 2019-05-22 2019-08-02 深圳市道通智能航空技术有限公司 云台控制方法、装置、控制终端及飞行器系统
CN110519540A (zh) * 2019-08-29 2019-11-29 深圳市道通智能航空技术有限公司 一种图像处理方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110519540A (zh) 2019-11-29
US20220182582A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
WO2021037286A1 (zh) 一种图像处理方法、装置、设备及存储介质
WO2018072657A1 (zh) 图像处理的方法、处理图像的装置、多目摄像装置以及飞行器
WO2016123893A1 (zh) 拍照的方法和装置以及终端
WO2020014909A1 (zh) 拍摄方法、装置和无人机
WO2022100677A1 (zh) 一种拍照预览方法、装置、存储介质和电子设备
CN203352678U (zh) 六摄像头全景图像硬件成像装置
WO2019041276A1 (zh) 一种图像处理方法、无人机及系统
US20150363952A1 (en) Image Obtaining Method, Photographing Apparatus And Storage Medium
JP2019510234A (ja) 奥行き情報取得方法および装置、ならびに画像取得デバイス
CN112311965A (zh) 虚拟拍摄方法、装置、系统及存储介质
KR101521008B1 (ko) 어안 렌즈를 사용하여 얻은 왜곡영상에 대한 보정방법 및 이를 구현하기 위한 영상 디스플레이 시스템
WO2019037038A1 (zh) 图像处理方法、装置及服务器
US11138706B2 (en) Voronoi cropping of images for post field generation
WO2021184302A1 (zh) 图像处理方法、装置、成像设备、可移动载体及存储介质
US11967038B2 (en) Systems and methods for image display
US20170270654A1 (en) Camera calibration using depth data
CN107633497A (zh) 一种图像景深渲染方法、系统及终端
WO2019023914A1 (zh) 一种图像处理方法、无人机、地面控制台及其图像处理系统
CN109785225B (zh) 一种用于图像矫正的方法和装置
CN114022662A (zh) 图像识别方法、装置、设备及介质
WO2020181510A1 (zh) 一种图像数据处理方法、装置及系统
WO2016192467A1 (zh) 一种播放视频的方法及装置
CN112738399B (zh) 图像处理方法、装置和电子设备
WO2019104453A1 (zh) 图像处理方法和装置
WO2021138856A1 (zh) 相机控制方法、设备及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20856110

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20856110

Country of ref document: EP

Kind code of ref document: A1