WO2019028700A1 - 图像处理方法、设备及计算机可读存储介质 - Google Patents

图像处理方法、设备及计算机可读存储介质 Download PDF

Info

Publication number
WO2019028700A1
WO2019028700A1 PCT/CN2017/096627 CN2017096627W WO2019028700A1 WO 2019028700 A1 WO2019028700 A1 WO 2019028700A1 CN 2017096627 W CN2017096627 W CN 2017096627W WO 2019028700 A1 WO2019028700 A1 WO 2019028700A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
sub
channel
information
mean
Prior art date
Application number
PCT/CN2017/096627
Other languages
English (en)
French (fr)
Inventor
胡攀
Original Assignee
深圳市大疆创新科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市大疆创新科技有限公司 filed Critical 深圳市大疆创新科技有限公司
Priority to PCT/CN2017/096627 priority Critical patent/WO2019028700A1/zh
Priority to CN201780017196.7A priority patent/CN108885782B/zh
Publication of WO2019028700A1 publication Critical patent/WO2019028700A1/zh
Priority to US16/731,026 priority patent/US20200143525A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Definitions

  • the embodiments of the present invention relate to the field of drones, and in particular, to an image processing method, device, and computer readable storage medium.
  • the dynamic range of an image refers to the ratio of the highest brightness value to the lowest brightness value in a natural scene.
  • current cameras can obtain up to 16 bits of data, and most display devices can only display 8 bits of data.
  • tone mapping of high dynamic range images is required.
  • a method for performing tone mapping on a high dynamic range image includes: a global tone mapping method and a local tone mapping method, but the global tone mapping method and the local tone mapping method are both in a high dynamic range image.
  • Tonal mapping on the luminance information results in a low dynamic range image after tone mapping processing that is difficult to preserve color information of a high dynamic range image, resulting in a low dynamic range image that is offset in color compared to a high dynamic range image.
  • Embodiments of the present invention provide an image processing method, device, and computer readable storage medium, so as to ensure that a low dynamic range image after tone mapping processing can retain color information of a high dynamic range image, and avoid low dynamic range images compared to high dynamics.
  • the range image produces an offset in color.
  • a first aspect of the embodiments of the present invention provides an image processing method, including:
  • a target image is determined based on the plurality of second sub-images.
  • a second aspect of an embodiment of the present invention is to provide an image processing apparatus including one or more processors operating separately or in cooperation, the one or more processors being used to:
  • a target image is determined based on the plurality of second sub-images.
  • a third aspect of the embodiments of the present invention provides an unmanned aerial vehicle, including:
  • a power system mounted to the fuselage for providing flight power
  • a fourth aspect of an embodiment of the present invention provides a computer readable storage medium having stored thereon a computer program that, when executed by one or more processors, implements the following steps:
  • a target image is determined based on the plurality of second sub-images.
  • the image processing method and device and the computer readable storage medium provided by the embodiment obtain a first image by preprocessing the original image, and decompose the first image into a plurality of first sub images, according to each of the first sub images.
  • the detail information, the color information and the mean information are compressed for each first sub-image to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images, and the hue mapping of the high dynamic range image is not only Perform tone mapping on the luminance information, and simultaneously compress the detail information, color information, and mean information to ensure tone mapping processing.
  • the latter low dynamic range image can preserve the color information of the high dynamic range image, avoiding the low dynamic range image from shifting in color compared to the high dynamic range image.
  • FIG. 1 is a flowchart of an image processing method according to an embodiment of the present invention
  • FIG. 2 is a schematic diagram of an image processing method according to an embodiment of the present invention.
  • FIG. 3 is a flowchart of an image processing method according to another embodiment of the present invention.
  • FIG. 4 is a flowchart of an image processing method according to another embodiment of the present invention.
  • FIG. 5 is a flowchart of an image processing method according to another embodiment of the present invention.
  • FIG. 6 is a flowchart of an image processing method according to another embodiment of the present invention.
  • FIG. 7 is a structural diagram of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 8 is a structural diagram of an unmanned aerial vehicle according to an embodiment of the present invention.
  • a component when referred to as being "fixed” to another component, it can be directly on the other component or the component can be in the middle. When a component is considered to "connect” another component, it can be directly connected to another component or possibly a central component.
  • FIG. 1 is a flowchart of an image processing method according to an embodiment of the present invention.
  • the execution body of the embodiment may be an image processing device, and the image processing device may be disposed in a drone or a ground station, and the ground station may be a remote controller, a smart phone, a tablet computer, a ground control station, and a laptop. Computers, watches, bracelets, etc. and combinations thereof.
  • the image processing device may also be disposed in a photographing device, such as a handheld pan/tilt, a digital camera, a video camera, or the like.
  • the image processing apparatus can process the image captured by the photographing apparatus mounted on the drone. If the image processing apparatus is disposed at the ground station, the ground station can receive image data wirelessly transmitted by the drone, and the image processing apparatus processes the image data received by the ground station. Still alternatively, the user holds the photographing device, and the image processing device within the photographing device processes the image captured by the photographing device. This embodiment does not limit a specific application scenario. The image processing method will be described in detail below.
  • the image processing method provided in this embodiment may include:
  • Step S101 Preprocessing the original image to obtain a first image.
  • the image processing device first preprocesses the original image to obtain a first image, which is an image that needs to be processed by an image, and may be a single frame image captured by the shooting device, or may be captured by a shooting device.
  • a first image which is an image that needs to be processed by an image
  • the embodiment does not limit the source of the original image.
  • the pre-processing the original image to obtain the first image includes: converting the original image into an RGB space to obtain a second image; performing global adjustment on the second image to obtain the first image,
  • the first image includes R channel data, G channel data, and B channel data.
  • the original image is denoted as L
  • the original image L is converted into an RGB space to obtain a second image.
  • the original image is a high dynamic range image
  • the original image is converted into an RGB space.
  • the second image is also a high dynamic range image.
  • the second image is denoted as L i , i ⁇ r, g, b; wherein L r represents R channel data of the second image, L g represents G channel data of the second image, and L b represents B channel data of the second image .
  • the second image L i is globally adjusted to obtain a first image
  • the first image is denoted as L i ', i ⁇ r, g, b.
  • the specific method of global adjustment may be: using a log curve to the high dynamic range image
  • the two images L i are globally adjusted to obtain the first image L i ', i ⁇ r, g, b, and the specific adjustment method is as shown in the formula (1):
  • L r represents R channel data of the second image before global adjustment
  • L g represents G channel data of the second image before global adjustment
  • L b represents B channel of the second image before global adjustment data
  • L r ' represents the R channel data of the first image after global adjustment
  • L g ' represents the G channel data of the first image after global adjustment
  • L b ' represents the B channel data of the first image after global adjustment.
  • Step S102 Decompose the first image into a plurality of first sub-images.
  • the first image L i ', i ⁇ r, g, b is decomposed into a plurality of first sub-images, wherein one of the first sub-images is denoted as X i , i ⁇ r, g, b, specifically,
  • the method of sliding the window decomposes the first image L i ', i ⁇ r, g, b into a plurality of first sub-images, wherein X r represents R channel data of the first sub image, and X g represents the first sub image G channel data, X b represents the B channel data of the first sub image.
  • Step S103 Determine detail information, color information, and mean information of each of the plurality of first sub-images.
  • each of the plurality of first sub-images may be decomposed into three parts, the three parts being a detail part, a color part, and an average part, respectively.
  • the detail part corresponds to the detail information of the first sub-image
  • the color part corresponds to the color information of the first sub-image
  • the mean part corresponds to the mean value information of the first sub-image, wherein the detail information can be specifically expressed as the formula (3), and the color information can be specifically Expressed as formula (4)
  • the mean information is specifically the overall mean m of the first sub-image on the three channels of R channel, G channel and B channel.
  • Step S104 Compress the plurality of first sub-images to generate a plurality of second sub-images according to the detail information, the color information, and the average information.
  • each first sub-image Color information is subjected to compression processing for each first sub-image to obtain a second sub-image corresponding to each first sub-image, that is, a plurality of first sub-images are compressed to generate a plurality of second sub-images.
  • the compressing the plurality of first sub-images to generate the plurality of second sub-images according to the detail information, the color information, and the mean value information including: by using color information for each of the first sub-images
  • the detail information is subjected to nonlinear compression, and the second sub-image is obtained by linearly compressing the mean value information of the first sub-image.
  • the color information and the detail information of the first sub-image may be nonlinearly compressed, and the mean information of the first sub-image is linearly compressed, thereby obtaining
  • the second sub-image corresponding to the first sub-image is subjected to such compression processing for each of the first sub-images without loss of generality, thereby obtaining a corresponding number of each of the first sub-images
  • the two sub-images that is, generate a plurality of second sub-images.
  • Step S105 Determine a target image according to the plurality of second sub-images.
  • step S102 the first image is decomposed into a plurality of first sub-images, such as a first sub-image 21, a first sub-image 22, a first sub-image 23, and a first image.
  • a sub-image 24, which is only schematically illustrated herein, does not limit the number of specific first sub-images.
  • step S103 detailed information, color information and mean information of the first sub-image 21, detail information, color information and mean information of the first sub-image 22, detail information, color information and mean information of the first sub-image 23 are determined. And detailed information, color information, and mean information of the first sub-image 24.
  • the first sub-image 21 may be compressed according to the detail information, the color information and the mean information of the first sub-image 21 to obtain the second sub-image 210; according to the detail information, the color information and the mean information of the first sub-image 22, Compressing the first sub-image 22 to obtain a second sub-image 220; compressing the first sub-image 23 according to the detail information, the color information and the mean information of the first sub-image 23 to obtain the second sub-image 230; according to the details of the first sub-image 24
  • the information, color information, and mean information are compressed, and the first sub-image 24 is compressed to obtain a second sub-image 240.
  • Determining the target image according to the plurality of second sub-images comprising: arranging the second sub-image corresponding to each first sub-image according to the position of each first sub-image in the first image Forming a third image; mapping pixel values of each pixel in the third image to a dynamic range of the display device to obtain the target image.
  • the first sub-image 21 is in the upper left corner of the first image 20
  • the first sub-image 22 is in the upper right corner of the first image 20
  • the first sub-image 23 is in the lower left corner of the first image 20
  • first The sub-image 24 is in the lower right corner of the first image 20.
  • the second sub-image 240 is arranged to form a third image 200.
  • the position of the second sub-image 210 in the third image 200 and the position of the first sub-image 21 in the first image 20 are identical, and the second sub-image
  • the position of the image 220 in the third image 200 coincides with the position of the first sub-image 22 in the first image 20, the position of the second sub-image 230 in the third image 200 and the first sub-image 23 in the first image 20
  • the position of the second sub-image 240 in the third image 200 coincides with the position of the first sub-image 24 in the first image 20, optionally, the second sub-image 210, the second sub-image 220
  • the third image 200 formed by the second sub-image 230 and the second sub-image 240 is a low dynamic range image, optionally, a third image
  • the pixel value of each pixel of 200 is between 0-1, that is, the plurality of first sub-images are compressed to generate a plurality of second sub-images according to the detail information, the color information, and the mean information.
  • the pixel values of each pixel in the third image 200 can be mapped into the dynamic range of the display device.
  • the dynamic range of the display device is 8 bits, so each of the third images 200 can be The pixel values of the pixels are linearly stretched to a range of 0-255 to obtain the target image, ie, the pixel values between 0-1 are mapped between 0-255.
  • the original image is a high dynamic range image
  • the target image is a low dynamic range image
  • the method before the pixel value of each pixel in the third image is mapped to the dynamic range of the display device, the method further includes: adjusting a pixel value of the pixel in the third image to improve The contrast of the third image.
  • the pixel value of the pixel in the third image 200 may also be adjusted, and the specific adjustment method may be Yes: the pixel values of the brightest and darkest pixels are compressed according to a preset ratio, for example, the preset ratio is 10%, and since the pixel value of each pixel of the third image 200 is at most 1, the pixel value is smaller than 1*10% of the pixels are set to 0, and pixels with pixel values greater than 1*10% are set to 1.
  • the third image 200 may also be The second sub-image 210, the second sub-image 220, the second sub-image 230, and the second sub-image 240 perform weighting processing.
  • the reason for the weighting processing is that the first image is decomposed into a plurality of first sub-images.
  • the sliding window mode in some sliding window modes, there is an overlapping portion between two adjacent first sub-images, that is, the first sub-image 21, the first sub-image 22, the first sub-image 23, and the first sub-image.
  • the second sub-image 210, the second sub-image 220, the second sub-image 230, and the second sub-image 240 in the third image 200 may be weighted to weaken or eliminate the phase. Adjacent to the overlap between the two second sub-images.
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • FIG. 3 is a flowchart of an image processing method according to another embodiment of the present invention. As shown in FIG. 3, based on the embodiment shown in FIG. 1, step S103 determines detailed information, color information, and mean information of each of the plurality of first sub-images, and may include the following steps:
  • Step S301 Calculate an average value of the first sub-images on the R channel, the G channel, and the B channel.
  • the calculating the average values of the first sub-images on the R channel, the G channel, and the B channel respectively includes: calculating, according to the R channel data of the first sub image, the first sub image on the R channel a first average value; calculating a second mean value of the first sub-image on the G channel according to the G channel data of the first sub image; calculating the first sub image according to the B channel data of the first sub image The third mean on the B channel.
  • the first sub-image is denoted as X i , i ⁇ r, g, b, where X r represents R channel data of the first sub-image, X g represents G channel data of the first sub-image, and X b represents the first sub-image B channel data.
  • Step S302 according to the first sub-image respectively on the R channel, the G channel, and the B channel Mean, determining detailed information, color information, and mean information of the first sub-image.
  • the determining, according to the mean values of the first sub-images on the R channel, the G channel, and the B channel, the detailed information, the color information, and the mean information of the first sub-image including the following aspects:
  • One aspect is: determining the first according to the R channel data, the G channel data, and the B channel data of the first sub image, and the average of the first sub image on the R channel, the G channel, and the B channel, respectively.
  • the sub-image has detailed information on each channel.
  • the detailed information of a sub-image on each channel includes: determining, according to the R channel data of the first sub-image and the first mean, detailed information of the first sub-image on the R channel; Determining, by the G channel data of the first sub image and the second mean, detail information of the first sub image on the G channel; determining, according to the B channel data of the first sub image and the third mean value The detailed information of the first sub-image on the B channel.
  • the R channel data of the first sub-image is X r
  • the first mean is m r
  • the detailed information of the first sub-image on the R channel is
  • the G channel data of the first sub-image is X g
  • the second mean is m g
  • the detailed information of the first sub-image on the G channel is
  • the B-channel data of the first sub-image is X b
  • the third average is m b
  • the detailed information of the first sub-image on the B-channel is
  • Another aspect is: determining, according to the mean values of the first sub-images on the R channel, the G channel, and the B channel, and the mean information of the first sub-image, the first sub-image on each channel Color information.
  • the determining, according to the mean values of the first sub-images on the R channel, the G channel, and the B channel, and the mean information of the first sub-image, determining the first sub-image on each channel includes: determining, according to the first mean value and the mean value information of the first sub image, color information of the first sub image on the R channel; according to the second mean value and the first sub image Mean information, determining color information of the first sub-image on the G channel; determining color information of the first sub-image on the B channel according to the third mean and the mean information of the first sub-image .
  • the mean information of the first sub-image is an average of the first mean value, the second mean value, and the third mean value.
  • the mean values of the first sub-image on the R channel, the G channel, and the B channel are represented as m i , i ⁇ r, g, b.
  • the mean information of the first sub-image is an average of the first mean value, the second mean value, and the third mean value, that is, the mean value information of the first sub-image is m.
  • the first mean is m r
  • the mean information of the first sub-image is m
  • the color information of the first sub-image on the R channel is
  • the second mean value is m g
  • the mean information of the first sub-image is m
  • the color information of the first sub-image on the G channel is
  • the third mean value is m b
  • the mean information of the first sub-image is m
  • the color information of the first sub-image on the B channel is
  • the average value of the first sub-image on the R channel, the G channel, and the B channel is calculated, and the first sub-image is determined according to the average values of the first sub-image on the R channel, the G channel, and the B channel.
  • the detailed information, color information and mean information of a sub-image enable accurate calculation of detail information, color information and mean information.
  • FIG. 4 is a flowchart of an image processing method according to another embodiment of the present invention.
  • nonlinear compression is performed on color information and detail information of each first sub-image
  • linear mean compression is performed on the mean information of the first sub-image.
  • Obtaining the second sub-image may include:
  • Step S401 Determine the class to which each first sub-image belongs by clustering the detailed information of each first sub-image.
  • the first image 20 is decomposed into a plurality of first sub-images, and the detail information of each first sub-image can be expressed as Indicates the details of the first sub-image on the R channel, Indicates the details of the first sub-image on the G channel, Indicates the detail information of the first sub-image on the B channel.
  • the class information of each first sub-image is determined by clustering the detailed information of each first sub-image, and the K-means clustering method is used for clustering.
  • the detail information of a sub-image constitutes a column vector.
  • the first sub-image X i , i ⁇ r, g, b is a block of 5*5
  • the blocks of X r , X g , and X b are respectively 5*5.
  • 5*5 blocks respectively
  • Each element constitutes a column vector, which is a columnar vector of 25*1.
  • each element of the frame constitutes a column vector
  • the column vector is a column vector of 25*1
  • Each element of the frame constitutes a column vector, which is a column vector of 25*1.
  • Corresponding column vector Corresponding column vector sum
  • the corresponding column vector constitutes a 75*1 column vector.
  • the detail information of each first sub-image may constitute a 75*1 column vector. As shown in FIG. 2, the detail information of the first sub-image 21 may constitute a column vector, and the detailed information of the first sub-image 22 may constitute A column vector, the detail information of the first sub-image 23 may constitute a column vector, and the detail information of the first sub-image 24 may constitute a column vector.
  • the K-means clustering method is used to cluster the column vectors corresponding to each first sub-image. For example, if the column vector corresponding to each first sub-image is a column vector of 75*1, the dimension of the cluster object is 75*1.
  • multiple column vectors can be divided into several categories. It can be understood that the number of clustered classes is less than or equal to the number of cluster objects, that is, the number of column vectors, and the class to which the column vector belongs is the column vector corresponding to The class to which a sub-image belongs, that is, the clustering of the column vectors formed by the detailed information of the first sub-image, is used to perform clustering on the first sub-image.
  • N classes are denoted as G 1 , G 2 , G 3 ... G N , respectively, and the covariance matrix of each class is ⁇ 1 , ⁇ 2 , ⁇ 3 ... ⁇ N , respectively.
  • ⁇ n is the covariance matrix of the nth class of N classes
  • the eigenvalue decomposition of the covariance matrix ⁇ n can be obtained by the following formula (5):
  • the calculation method of the dictionary corresponding to the other classes except the nth class among the N classes is the same as described above, and is not enumerated here.
  • the dictionaries corresponding to each of G 1 , G 2 , G 3 , ... G N are respectively P 1 , P 2 , P 3 , ... P N .
  • Step S402 Perform projection processing on the first sub-image according to the detail information of the first sub-image and the class to which the first sub-image belongs, to obtain a projection value of the detail information of the first sub-image.
  • performing the projection processing on the first sub image according to the detail information of the first sub image and the class to which the first sub image belongs includes: determining that the first sub image belongs to a covariance matrix of the class; determining a dictionary corresponding to the class to which the first sub-image belongs by decomposing the covariance matrix; projecting detail information of the first sub-image to a class to which the first sub-image belongs Corresponding in the dictionary.
  • the first sub-image 21, the first sub-image 22, the first sub-image 23, and the first sub-image 24 are clustered by using the above clustering method, and it is assumed that three classes are obtained after clustering.
  • G 1 , G 2 , G 3 it is assumed that the first sub-image 21 belongs to the first class, that is, G 1 , and the first sub-image 22 and the first sub-image 23 belong to the second class, that is, G 2 , and the first sub-image 24 It belongs to the third class, G 3 , and the covariance matrix of each class is ⁇ 1 , ⁇ 2 , ⁇ 3 in turn .
  • the dictionary P 1 and G 2 corresponding to G 1 can be calculated.
  • dictionary corresponding to P 2 and G 3 corresponding dictionary P 3.
  • each first sub-image 21 Further projecting the detail information of each first sub-image into a dictionary corresponding to the class to which each first sub-image belongs, for example, projecting the detail information of the first sub-image 21 to the class corresponding to the class to which the first sub-image 21 belongs
  • the detailed information of the first sub-image 22 is projected into the dictionary corresponding to the class to which the first sub-image 22 belongs;
  • the detailed information of the first sub-image 23 is projected into the dictionary corresponding to the class to which the first sub-image 23 belongs
  • the detail information of the first sub-image 24 is projected into a dictionary corresponding to the class to which the first sub-image 24 belongs.
  • the detailed information of the first sub-image 21 is projected onto the dictionary corresponding to the class to which the first sub-image 21 belongs, and a specific projection process is introduced.
  • the projection process of the other first sub-images is the same.
  • the detailed information of the first sub-image 21 is The dictionary corresponding to the class to which the first sub-image 21 belongs is P 1 , and the detail information of the first sub-image 21 is projected onto the dictionary corresponding to the class to which the first sub-image 21 belongs to obtain a projection value, and the projection value is
  • Step S403 performing non-linear compression on the projection value of the detail information of the first sub-image to obtain first compressed data.
  • the adjusted projection values are ⁇ , ⁇ and The relationship can be determined by equation (7):
  • w 1 represents an S-curve and ⁇ represents a threshold function.
  • represents a threshold function.
  • the threshold function ⁇ can be expressed as the following formula (8)
  • the sigmoid curve can be expressed as the following formula (9):
  • the first compressed data obtained by performing nonlinear compression may specifically be P 1 T ⁇ ,
  • Step S404 performing nonlinear compression on the color information of the first sub-image to obtain second compressed data.
  • the color information of the first sub-image 21 can be adopted by the S-shaped curve Perform nonlinear compression to obtain the second compressed data, specifically Among them, the function form of w 3 is the same as the function form of w 1 .
  • Step S405 performing linear compression on the mean value information of the first sub-image to obtain third compressed data.
  • the mean information of the first sub-image 21 is the total mean m of the first sub-image 21 on the three channels of the R channel, the G channel, and the B channel, and the third compressed data obtained by linearly compressing the mean information of the first sub-image 21 Specifically, it may be w 2 *m, where w 2 is a number within the range of 0-1.
  • Step S406 Perform image reconstruction according to the first compressed data, the second compressed data, and the third compressed data to obtain the second sub-image.
  • Second compressed data Performing image reconstruction with the third compressed data w 2 *m to obtain a second sub-image, the second sub-image 210, the second sub-image 210 may be represented as y i , and y i may be determined according to formula (10):
  • the calculation principles of the second sub-image 220, the second sub-image 230, and the second sub-image 240 are consistent with the calculation principle of the second sub-image 210, and are not described herein.
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • FIG. 5 is a flowchart of an image processing method according to another embodiment of the present invention.
  • the method in this embodiment may include: preprocessing a high dynamic range image, where the high dynamic range image may be the original image in step S101, and the preprocessing process is consistent with the process of step S101.
  • the process of the decomposition is the same as the step S102.
  • the block here is equivalent to the first sub image in the above embodiment, and the detailed information and color information of each block are obtained after being decomposed.
  • the mean value information is color-adjusted, specifically, the color information is nonlinearly compressed, and the second compression data is obtained by the compression process described in step S404.
  • the detailed information is clustered and the dictionary is created.
  • the specific process is as follows: step S401 and step S402, the detail information is further projected and adjusted, and the specific process is as follows: step S402 and step S403.
  • the mean value information is adjusted by the mean value, and the specific process is as follows: step S405.
  • the block reconstruction is performed by projecting and adjusting the detailed information P 1 T ⁇ and w 2 *m after the mean value adjustment, and the result of the block reconstruction is the above formula (10) Further
  • the subsequent processing may be performed in the following steps: the processing of the weighting process, the pixel value adjustment, the pixel value mapping, and the like, and the processes of the weighting process, the pixel value adjustment, and the pixel value mapping are the same as those in the foregoing embodiment, and are not described herein again. Finally, a low dynamic range image, that is, the target image described in the above embodiment is obtained.
  • FIG. 6 is a flowchart of an image processing method according to another embodiment of the present invention.
  • the method shown in FIG. 6 is different from the method shown in FIG. 5 in that, on the basis of FIG. 5, the mean value information 60 after the first block decomposition is further block-decomposed to obtain the detail information 61.
  • the mean information 62, the further decomposed detail information 61 is clustered and the dictionary is established, and the projection and adjustment processes are all consistent with the above embodiment, and the mean value adjustment of the further decomposed mean information 62 is also consistent with the above embodiment.
  • the detail information 61 is clustered and the dictionary is created, and the result of the projection and adjustment and the result of the mean adjustment of the mean information 62 are first subjected to block reconstruction as shown in 63, and the result of color adjustment of the color information 64 is further performed.
  • the detailed information 65 is clustered and the dictionary is built, and the projected and adjusted result and the block reconstructed result shown in 63 are further reconstructed as shown in 66, further weighted by the block shown by 66.
  • the post-construction result is subjected to subsequent processing, and the subsequent processing may include: a process of weighting processing, pixel value adjustment, pixel value mapping, etc., a process of weighting processing, pixel value adjustment, pixel value mapping, etc., and the foregoing embodiment The process is consistent and will not be repeated here. Finally, a low dynamic range image, that is, the target image described in the above embodiment is obtained.
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • FIG. 7 is a structural diagram of an image processing apparatus according to an embodiment of the present invention.
  • the image processing apparatus 70 includes one or more processors 71, and one or more processors 71 work alone or in cooperation, one or more.
  • the processor 71 is configured to: preprocess the original image to obtain a first image; decompose the first image into a plurality of first sub-images; and determine each of the plurality of first sub-images Detail information, color information, and mean information; compressing the plurality of first sub-images to generate a plurality of second sub-images according to the detail information, the color information, and the mean information; and according to the plurality of The two sub-images determine the target image.
  • the one or more processors 71 compress the plurality of first sub-images to generate a plurality of second sub-images according to the detailed information, the color information, and the average information, specifically for: Performing nonlinear compression on color information and detail information of each first sub-image, and linearly compressing mean value information of the first sub-image to obtain the second sub-image.
  • the original image is a high dynamic range image
  • the target image is a low dynamic range image
  • the method is: converting the original image into an RGB space to obtain a second image; and globally adjusting the second image.
  • the first image is obtained, and the first image includes R channel data, G channel data, and B channel data.
  • the one or more processors 71 are specifically configured to: according to the position of each first sub-image in the first image, for each The second sub-images corresponding to the first sub-images are arranged to form a third image; the pixel values of each pixel in the third image are mapped into a dynamic range of the display device to obtain the target image.
  • the method before the one or more processors 71 map the pixel values of each pixel in the third image to the dynamic range of the display device, the method further includes: adjusting pixels in the third image The pixel value of the point to increase the contrast of the third image.
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • An embodiment of the present invention provides an image processing apparatus.
  • the one or more processors 71 determine the detail information, the color information, and the mean information of each of the plurality of first sub-images, And configured to: calculate an average value of the first sub-image on the R channel, the G channel, and the B channel; and determine the first according to the average of the first sub-image on the R channel, the G channel, and the B channel respectively Sub-image detail information, color information, and mean information.
  • the one or more processors 71 determine the detail information, the color information, and the mean information of the first sub-image according to the average values of the first sub-images on the R channel, the G channel, and the B channel, respectively. Specifically, determining, according to the R channel data, the G channel data, and the B channel data of the first sub image, and the average values of the first sub image on the R channel, the G channel, and the B channel, respectively, determining the first Determining the detailed information of the sub-image on each channel; determining the first sub-image according to the mean values of the first sub-image on the R channel, the G channel, the B channel, and the mean information of the first sub-image Color information on each channel.
  • One or more processors 71 calculate the first sub-images in the R channel, the G channel, and the B The average value on the channel is used to: calculate a first mean value of the first sub-image on the R channel according to the R channel data of the first sub-image; and calculate a G channel data according to the first sub-image Determining a second mean value of the first sub-image on the G channel; calculating a third mean value of the first sub-image on the B channel according to the B channel data of the first sub-image.
  • the one or more processors 71 determine the R channel data, the G channel data, and the B channel data of the first sub image, and the average values of the first sub image on the R channel, the G channel, and the B channel, respectively. Determining, when the first sub-image is detailed information on each channel, determining: determining, according to the R channel data of the first sub-image and the first mean, details of the first sub-image on the R channel Information; determining, according to the G channel data of the first sub image and the second mean, detail information of the first sub image on the G channel; according to the B channel data of the first sub image and the The three means determine the detailed information of the first sub-image on the B channel.
  • the one or more processors 71 determine the first sub-image in each channel according to the mean values of the first sub-images on the R channel, the G channel, and the B channel, and the mean information of the first sub-image
  • the color information is used to: determine color information of the first sub-image on the R channel according to the first mean value and the mean value information of the first sub-image; according to the second mean value Determining, according to the mean information of the first sub-image, color information of the first sub-image on the G channel; determining, according to the third mean value and the mean value information of the first sub-image, that the first sub-image is in B Color information on the channel.
  • the mean information of the first sub-image is an average of the first mean value, the second mean value, and the third mean value.
  • the average value of the first sub-image on the R channel, the G channel, and the B channel is calculated, and the first sub-image is determined according to the average values of the first sub-image on the R channel, the G channel, and the B channel.
  • the detailed information, color information and mean information of a sub-image enable accurate calculation of detail information, color information and mean information.
  • An embodiment of the present invention provides an image processing apparatus.
  • the one or more processors 71 perform nonlinear compression on the color information and the detail information of the first sub image, and on the first sub image.
  • Mean information for linearity When the second sub-image is obtained by compression, the method further includes: performing projection processing on the first sub-image according to the detail information of the first sub-image and the class to which the first sub-image belongs, to obtain the first sub-image a projection value of the detail information of the image; non-linearly compressing the projection value of the detail information of the first sub-image to obtain first compressed data; performing nonlinear compression on the color information of the first sub-image to obtain second compressed data Performing linear compression on the mean value information of the first sub-image to obtain third compressed data; performing image reconstruction according to the first compressed data, the second compressed data, and the third compressed data to obtain the second Sub image.
  • the one or more processors 71 are further configured to: pass each of the first sub-images according to the detail information of the first sub-image and the class to which the first sub-image belongs The detail information of the first sub-image is clustered to determine the class to which each first sub-image belongs.
  • the one or more processors 71 perform the projection processing on the first sub-image according to the detail information of the first sub-image and the class to which the first sub-image belongs, specifically: determining a covariance matrix of a class to which the first sub-image belongs; determining a dictionary corresponding to the class to which the first sub-image belongs by decomposing the covariance matrix; and projecting detail information of the first sub-image to the A sub-image belongs to the dictionary corresponding to the class.
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • FIG. 8 is a structural diagram of an unmanned aerial vehicle according to an embodiment of the present invention.
  • the unmanned aerial vehicle 100 includes a fuselage, a power system, a flight controller 118, and an image processing device 109.
  • the power system includes the following: At least one of: a motor 107, a propeller 106, and an electronic governor 117, the power system is mounted on the fuselage, Providing flight power; a flight controller 118 is in communication with the power system for controlling the UAV flight.
  • the unmanned aerial vehicle 100 further includes: a sensing system 108, a communication system 110, a supporting device 102, and a photographing device 104.
  • the supporting device 102 may specifically be a pan/tilt
  • the communication system 110 may specifically include receiving
  • the receiver is configured to receive a wireless signal transmitted by the antenna 114 of the ground station 112, and 116 represents an electromagnetic wave generated during communication between the receiver and the antenna 114.
  • the image processing device 109 can perform image processing on the image captured by the image capturing device 104.
  • the image processing method is similar to the method embodiment.
  • the specific principles and implementations of the image processing device 109 are similar to the above embodiments, and are not described herein again. .
  • the first image is obtained by pre-processing the original image, and the first image is decomposed into a plurality of first sub-images, and each first is obtained according to the detail information, the color information, and the mean information of each first sub-image.
  • the sub-image is compressed to generate a plurality of second sub-images, and the target image is determined according to the plurality of second sub-images.
  • Embodiments of the present invention provide a computer readable storage medium having stored thereon a computer program, wherein the computer program is executed by one or more processors to implement the following steps:
  • a target image is determined based on the plurality of second sub-images.
  • the compressing the plurality of first sub-images to generate the plurality of second sub-images according to the detailed information, the color information, and the mean information including:
  • the second sub-image is obtained by nonlinearly compressing color information and detail information of each first sub-image and linearly compressing mean information of the first sub-image.
  • the original image is a high dynamic range image
  • the target image is a low dynamic range image
  • the preprocessing the original image to obtain the first image includes:
  • the first image including R channel data, G channel data, and B channel data.
  • the determining the detail information, the color information, and the mean information of each of the plurality of first sub-images including:
  • determining, according to the average values of the first sub-images on the R channel, the G channel, and the B channel, the detailed information, the color information, and the mean information of the first sub-image including:
  • the calculating the average values of the first sub-images on the R channel, the G channel, and the B channel respectively includes:
  • the R channel data, the G channel data, and the B channel according to the first sub image
  • the track data, and the mean values of the first sub-images on the R channel, the G channel, and the B channel respectively, determine the detailed information of the first sub-image on each channel, including:
  • the determining, according to the mean values of the first sub-images on the R channel, the G channel, and the B channel, and the mean information of the first sub-image, determining that the first sub-image is on each channel Color information including:
  • the mean information of the first sub-image is an average of the first mean value, the second mean value, and the third mean value.
  • the second sub-image is obtained by performing nonlinear compression on the color information and the detail information of the first sub-image, and linearly compressing the mean information of the first sub-image, including:
  • the method before the performing the projection processing on the first sub-image according to the detail information of the first sub-image and the class to which the first sub-image belongs, the method further includes:
  • the class to which each first sub-image belongs is determined by clustering the detail information of each of the first sub-images.
  • the performing according to the detail information of the first sub-image and the class to which the first sub-image belongs, performing a projection process on the first sub-image, including:
  • the detail information of the first sub image is projected into a dictionary corresponding to the class to which the first sub image belongs.
  • the determining the target image according to the plurality of second sub-images includes:
  • Pixel values of each pixel in the third image are mapped into a dynamic range of the display device to obtain the target image.
  • the method before the mapping the pixel value of each pixel in the third image to the dynamic range of the display device, the method further includes:
  • the disclosed apparatus and method may be implemented in other manners.
  • the device embodiments described above are merely illustrative.
  • the division of the unit is only a logical function division.
  • there may be another division manner for example, multiple units or components may be combined or Can be integrated into another system, or some features can be ignored or not executed.
  • the mutual coupling or direct coupling or communication connection shown or discussed may be an indirect coupling or communication connection through some interface, device or unit, and may be in an electrical, mechanical or other form.
  • the units described as separate components may or may not be physically separated, and the components displayed as units may or may not be physical units, that is, may be located in one place, or may be distributed to multiple network units. Can be selected according to actual needs Some or all of the units are selected to achieve the objectives of the solution of the embodiment.
  • each functional unit in each embodiment of the present invention may be integrated into one processing unit, or each unit may exist physically separately, or two or more units may be integrated into one unit.
  • the above integrated unit can be implemented in the form of hardware or in the form of hardware plus software functional units.
  • the above-described integrated unit implemented in the form of a software functional unit can be stored in a computer readable storage medium.
  • the above software functional unit is stored in a storage medium and includes instructions for causing a computer device (which may be a personal computer, a server, or a network device, etc.) or a processor to perform the methods of the various embodiments of the present invention. Part of the steps.
  • the foregoing storage medium includes: a U disk, a mobile hard disk, a read-only memory (ROM), a random access memory (RAM), a magnetic disk, or an optical disk, and the like, which can store program codes. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种图像处理方法、设备及计算机可读存储介质,该方法包括:对原始图像进行预处理得到第一图像(S101);将所述第一图像分解为多个第一子图像(S102);确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息(S103);根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像(S104);以及根据所述多个第二子图像,确定目标图像(S105),对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。

Description

图像处理方法、设备及计算机可读存储介质 技术领域
本发明实施例涉及无人机领域,尤其涉及一种图像处理方法、设备及计算机可读存储介质。
背景技术
图像的动态范围指的是自然场景中最高亮度值和最低亮度值的比值。随着传感器技术的发展,目前的照相机能够获得高达16bit的数据,而大部分的显示设备只能显示8bit的数据。当高动态范围图像需要在低动态范围显示设备上显示时,需要对高动态范围图像进行色调映射。
现有技术中,对高动态范围图像进行色调映射的方法包括:全局的色调映射方法和局部的色调映射方法,但是,全局的色调映射方法和局部的色调映射方法均是在高动态范围图像的亮度信息上进行色调映射,导致色调映射处理后的低动态范围图像难以保留高动态范围图像的色彩信息,导致低动态范围图像相比于高动态范围图像在色彩上产生偏移。
发明内容
本发明实施例提供一种图像处理方法、设备及计算机可读存储介质,以保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例的第一方面是提供一种图像处理方法,包括:
对原始图像进行预处理得到第一图像;
将所述第一图像分解为多个第一子图像;
确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
根据所述多个第二子图像,确定目标图像。
本发明实施例的第二方面是提供一种图像处理设备,包括一个或多个处理器,单独或协同工作,所述一个或多个处理器用于:
对原始图像进行预处理得到第一图像;
将所述第一图像分解为多个第一子图像;
确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
根据所述多个第二子图像,确定目标图像。
本发明实施例的第三方面是提供一种无人飞行器,包括:
机身;
动力系统,安装在所述机身,用于提供飞行动力;
以及第二方面所述的图像处理设备。
本发明实施例的第四方面是提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被一个或多个处理器执行时实现以下步骤:
对原始图像进行预处理得到第一图像;
将所述第一图像分解为多个第一子图像;
确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
根据所述多个第二子图像,确定目标图像。
本实施例提供的图像处理方法、设备及计算机可读存储介质,通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理 后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的图像处理方法的流程图;
图2为本发明实施例提供的图像处理方法的示意图;
图3为本发明另一实施例提供的图像处理方法的流程图;
图4为本发明另一实施例提供的图像处理方法的流程图;
图5为本发明另一实施例提供的图像处理方法的流程图;
图6为本发明另一实施例提供的图像处理方法的流程图;
图7为本发明实施例提供的图像处理设备的结构图;
图8为本发明实施例提供的无人飞行器的结构图。
附图标记:
20-第一图像    21-第一子图像  22-第一子图像
23-第一子图像  24-第一子图像  210-第二子图像
220-第二子图像 230-第二子图像 240-第二子图像
200-第三图像   60-均值信息    61-细节信息
62-均值信息    63-块重构      64-颜色信息
65-细节信息    66-块重构      70-图像处理设备
71-一个或多个处理器           100-无人飞行器
107-电机       106-螺旋桨     117-电子调速器
118-飞行控制器 108-传感系统   110-通信系统
102-支撑设备   104-拍摄设备   112-地面站
114-天线       116-电磁波
109-图像处理设备
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,当组件被称为“固定于”另一个组件,它可以直接在另一个组件上或者也可以存在居中的组件。当一个组件被认为是“连接”另一个组件,它可以是直接连接到另一个组件或者可能同时存在居中组件。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
本发明实施例提供一种图像处理方法。图1为本发明实施例提供的图像处理方法的流程图。本实施例的执行主体可以是图像处理设备,该图像处理设备可以设置在无人机,也可以设置在地面站,地面站具体可以是遥控器、智能手机、平板电脑、地面控制站、膝上型电脑、手表、手环等及其组合。在其他实施例中,该图像处理设备还可以设置在拍摄设备,例如手持云台、数码相机、摄像机等。具体的,如果图像处理设备设置在无人机,则该图像处理设备可以对无人机搭载的拍摄设备拍摄到的图像进行处理。如果图像处理设备设置在地面站,地面站可以接收无人机无线传输的图像数据,该图像处理设备对地面站接收到的图像数据进行处理。再或者,用户手持拍摄设备,拍摄设备内的图像处理设备对该拍摄设备拍摄到的图像进行处理。本实施例并不限定具体的应用场景。下面对图像处理方法进行详细介绍。
如图1所示,本实施例提供的图像处理方法,可以包括:
步骤S101、对原始图像进行预处理得到第一图像。
在本实施例中,图像处理设备首先对原始图像进行预处理得到第一图像,该原始图像是需要进行图像处理的图像,具体可以是拍摄设备拍摄的单独一帧图像,也可以是拍摄设备拍摄的视频数据中连续多帧图像中的一帧图像,本实施例并不限定原始图像的来源。
具体的,所述对原始图像进行预处理得到第一图像,包括:将所述原始图像转换到RGB空间,得到第二图像;对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
在本实施例中,原始图像记为L,将原始图像L转换到RGB空间得到第二图像,可选的,所述原始图像为高动态范围图像,将原始图像转换到RGB空间后得到的第二图像也是高动态范围图像。第二图像记为Li,i∈r,g,b;其中,Lr表示第二图像的R通道数据,Lg表示第二图像的G通道数据,Lb表示第二图像的B通道数据。进一步对第二图像Li进行全局调整得到第一图像,第一图像记为Li',i∈r,g,b,全局调整的具体方法可以是:利用log曲线对高动态范围图像即第二图像Li进行全局调整得到第一图像Li',i∈r,g,b,具体调整方法如公式(1)所示:
Li'=log(Li*106+1)        (1)
其中,i∈r,g,b,Lr表示全局调整前第二图像的R通道数据,Lg表示全局调整前第二图像的G通道数据,Lb表示全局调整前第二图像的B通道数据。Lr'表示全局调整后第一图像的R通道数据,Lg'表示全局调整后第一图像的G通道数据,Lb'表示全局调整后第一图像的B通道数据。
步骤S102、将所述第一图像分解为多个第一子图像。
进一步的,将第一图像Li',i∈r,g,b分解为多个第一子图像,其中一个第一子图像记为Xi,i∈r,g,b,具体的,采用滑窗的方式将第一图像Li',i∈r,g,b分解为多个第一子图像,其中,Xr表示第一子图像的R通道数据,Xg表示第一子图像的G通道数据,Xb表示第一子图像的B通道数据。根据第一子图像的R通道数据Xr可以计算出第一子图像在R通道的均值mr,根据第一子图像的G通道数据Xg可以计算出第一子图像在G通道的均值mg,根据第一子图像的B通道数据Xb可以计算出第一子图像在B通道的均值mb。第一子图像在R通道、G通道、B通道上的均值表示为mi,i∈r,g,b。第 一子图像在R通道、G通道、B通道三个通道上的总体均值记为m,m可以根据如下公式(2)确定:
m=(mr+mg+mb)/3        (2)
步骤S103、确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息。
在本实施例中,可将多个第一子图像中的每个第一子图像分解为三个部分,三个部分分别为细节部分、颜色部分和均值部分。细节部分对应第一子图像的细节信息,颜色部分对应第一子图像的颜色信息,均值部分对应第一子图像的均值信息,其中,细节信息具体可以表示为公式(3)、颜色信息具体可以表示为公式(4),均值信息具体为第一子图像在R通道、G通道、B通道三个通道上的总体均值m。
Figure PCTCN2017096627-appb-000001
其中,
Figure PCTCN2017096627-appb-000002
表示第一子图像在R通道上的细节信息,
Figure PCTCN2017096627-appb-000003
表示第一子图像在G通道上的细节信息,
Figure PCTCN2017096627-appb-000004
表示第一子图像在B通道上的细节信息。
Figure PCTCN2017096627-appb-000005
其中,
Figure PCTCN2017096627-appb-000006
表示第一子图像在R通道上的颜色信息,
Figure PCTCN2017096627-appb-000007
表示第一子图像在G通道上的颜色信息,
Figure PCTCN2017096627-appb-000008
表示第一子图像在B通道上的颜色信息。
步骤S104、根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像。
进一步,根据每个第一子图像的细节信息
Figure PCTCN2017096627-appb-000009
颜色信息
Figure PCTCN2017096627-appb-000010
均值信息m,对每个第一子图像进行压缩处理,得到每个第一子图像对应的第二子图像,即压缩多个第一子图像以生成多个第二子图像。
所述根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像,包括:通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
具体的,对任一一个第一子图像进行压缩处理时,可以对该第一子图像的颜色信息和细节信息进行非线性压缩,对该第一子图像的均值信息进行线性压缩,从而得到该第一子图像对应的第二子图像,不失一般性,对每个第一子图像均进行如此压缩处理,从而得到每个第一子图像对应的第 二子图像,即生成多个第二子图像。
步骤S105、根据所述多个第二子图像,确定目标图像。
如图2所示,20表示第一图像,根据步骤S102可知,第一图像被分解为多个第一子图像,例如第一子图像21、第一子图像22、第一子图像23、第一子图像24,此处只是示意性说明,并不限定具体的第一子图像个数。根据步骤S103,确定出第一子图像21的细节信息、颜色信息和均值信息,第一子图像22的细节信息、颜色信息和均值信息,第一子图像23的细节信息、颜色信息和均值信息,以及第一子图像24的细节信息、颜色信息和均值信息。根据步骤S104,可根据第一子图像21的细节信息、颜色信息和均值信息,压缩第一子图像21得到第二子图像210;根据第一子图像22的细节信息、颜色信息和均值信息,压缩第一子图像22得到第二子图像220;根据第一子图像23的细节信息、颜色信息和均值信息,压缩第一子图像23得到第二子图像230;根据第一子图像24的细节信息、颜色信息和均值信息,压缩第一子图像24得到第二子图像240。
所述根据所述多个第二子图像,确定目标图像,包括:按照每个第一子图像在所述第一图像中的位置,对每个第一子图像对应的第二子图像进行排列构成第三图像;将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
如图2所示,第一子图像21在第一图像20的左上角,第一子图像22在第一图像20的右上角,第一子图像23在第一图像20的左下角,第一子图像24在第一图像20的右下角。根据第一子图像21、第一子图像22、第一子图像23、第一子图像24在第一图像中的位置,对第二子图像210、第二子图像220、第二子图像230、第二子图像240进行排列构成第三图像200,可选的,第二子图像210在第三图像200中的位置和第一子图像21在第一图像20中的位置一致,第二子图像220在第三图像200中的位置和第一子图像22在第一图像20中的位置一致,第二子图像230在第三图像200中的位置和第一子图像23在第一图像20中的位置一致,第二子图像240在第三图像200中的位置和第一子图像24在第一图像20中的位置一致,可选的,第二子图像210、第二子图像220、第二子图像230、第二子图像240构成的第三图像200是低动态范围图像,可选的,第三图像 200的每个像素点的像素值在0-1之间,即根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像,相当于对第一子图像的每个像素点的像素值进行了归一化处理得到了像素值在0-1之间的第二子图像。
得到第三图像200后,可以将第三图像200中每个像素点的像素值映射到显示设备的动态范围内,例如,显示设备的动态范围是8bit,因此可以将第三图像200中每个像素点的像素值线性拉伸到0-255的范围内得到所述目标图像,即将0-1之间的像素值映射到0-255之间。
在本实施例中,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
在其他实施例中,所述将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
由于第三图像200的每个像素点的像素值在0-1之间,为了提高第三图像200的对比度,还可以对第三图像200中像素点的像素值进行调整,具体的调整方法可以是:按照预设比例压缩最亮和最暗的像素点的像素值,例如预设比例为10%,由于第三图像200的每个像素点的像素值最大为1,因此,将像素值小于1*10%的像素点设置为0,将像素值大于1*10%的像素点设置为1。
此外,在一些实施例中,对第二子图像210、第二子图像220、第二子图像230、第二子图像240进行排列构成第三图像200之后,还可以对第三图像200中的第二子图像210、第二子图像220、第二子图像230、第二子图像240进行加权处理,加权处理的原因是:将所述第一图像分解为多个第一子图像时采用了滑窗的方式,在一些滑窗方式中,相邻两个第一子图像之间会有重叠部分,即第一子图像21、第一子图像22、第一子图像23、第一子图像24中相邻的两个第一子图像之间会有重叠部分。对第一子图像21、第一子图像22、第一子图像23、第一子图像24分别进行压缩得到第二子图像210、第二子图像220、第二子图像230、第二子图像240后,第二子图像210、第二子图像220、第二子图像230、第二子图像240中相邻的两个第二子图像之间可能还会有重叠部分,为了避免重叠部 分影响第三图像200的画面质量,可以对第三图像200中的第二子图像210、第二子图像220、第二子图像230、第二子图像240进行加权处理,以减弱或消除相邻两个第二子图像之间的重叠部分。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种图像处理方法。图3为本发明另一实施例提供的图像处理方法的流程图。如图3所示,在图1所示实施例的基础上,步骤S103确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息,可以包括如下步骤:
步骤S301、计算所述第一子图像分别在R通道、G通道、B通道上的均值。
具体的,所述计算所述第一子图像分别在R通道、G通道、B通道上的均值,包括:根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
第一子图像记为Xi,i∈r,g,b,其中,Xr表示第一子图像的R通道数据,Xg表示第一子图像的G通道数据,Xb表示第一子图像的B通道数据。计算所述第一子图像分别在R通道、G通道、B通道上的均值时,具体的,根据第一子图像的R通道数据Xr计算第一子图像在R通道的第一均值记为mr,根据第一子图像的G通道数据Xg计算第一子图像在G通道的第二均值记为mg,根据第一子图像的B通道数据Xb计算第一子图像在B通道的第三均值记为mb
步骤S302、根据所述第一子图像分别在R通道、G通道、B通道上的 均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
具体的,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,包括如下几个方面:
一个方面是:根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息。
具体的,所述根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息,包括:根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
例如,第一子图像的R通道数据为Xr,第一均值为mr,第一子图像在R通道上的细节信息为
Figure PCTCN2017096627-appb-000011
第一子图像的G通道数据为Xg,第二均值为mg,第一子图像在G通道上的细节信息为
Figure PCTCN2017096627-appb-000012
第一子图像的B通道数据为Xb,第三均值为mb,第一子图像在B通道上的细节信息为
Figure PCTCN2017096627-appb-000013
另一个方面是:根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
具体的,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息,包括:根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图像在B通道上的颜色信息。
可选的,所述第一子图像的均值信息为所述第一均值、所述第二均值 和所述第三均值的均值。具体的,第一子图像在R通道、G通道、B通道上的均值表示为mi,i∈r,g,b。第一子图像在R通道、G通道、B通道三个通道上的总体均值记为m,m可以根据上述公式(2)确定,即m=(mr+mg+mb)/3。所述第一子图像的均值信息为所述第一均值、所述第二均值和所述第三均值的均值,即所述第一子图像的均值信息为m。
例如,第一均值为mr,所述第一子图像的均值信息为m,所述第一子图像在R通道上的颜色信息为
Figure PCTCN2017096627-appb-000014
第二均值为mg所述第一子图像的均值信息为m,所述第一子图像在G通道上的颜色信息为
Figure PCTCN2017096627-appb-000015
Figure PCTCN2017096627-appb-000016
第三均值为mb,所述第一子图像的均值信息为m,所述第一子图像在B通道上的颜色信息为
Figure PCTCN2017096627-appb-000017
本实施例通过计算所述第一子图像分别在R通道、G通道、B通道上的均值,根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,实现了对细节信息、颜色信息和均值信息的精确计算。
本发明实施例提供一种图像处理方法。图4为本发明另一实施例提供的图像处理方法的流程图。如图4所示,在图1所示实施例的基础上,通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像,可以包括:
步骤S401、通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
如图2所示,第一图像20被分解为多个第一子图像,每个第一子图像的细节信息可以表示为
Figure PCTCN2017096627-appb-000018
表示第一子图像在R通道上的细节信息,
Figure PCTCN2017096627-appb-000019
表示第一子图像在G通道上的细节信息,
Figure PCTCN2017096627-appb-000020
表示第一子图像在B通道上的细节信息。
本实施例可以通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类,具体采用K-means聚类方法进行聚类,聚类时可以将每个第一子图像的细节信息构成一个列向量,例如,第一子图像Xi,i∈r,g,b为5*5的块,则Xr、Xg、Xb分别为5*5的块,
Figure PCTCN2017096627-appb-000021
分别为5*5的块,将
Figure PCTCN2017096627-appb-000022
的每个元素构成一个列向量,该列向量为25*1的列向 量,同理,将
Figure PCTCN2017096627-appb-000023
的每个元素构成一个列向量,该列向量为25*1的列向量,将
Figure PCTCN2017096627-appb-000024
的每个元素构成一个列向量,该列向量为25*1的列向量,
Figure PCTCN2017096627-appb-000025
对应的列向量、
Figure PCTCN2017096627-appb-000026
对应的列向量和
Figure PCTCN2017096627-appb-000027
对应的列向量构成一个75*1的列向量。每个第一子图像的细节信息均可以构成一个75*1的列向量,如图2所示,第一子图像21的细节信息可以构成一个列向量,第一子图像22的细节信息可以构成一个列向量,第一子图像23的细节信息可以构成一个列向量,第一子图像24的细节信息可以构成一个列向量。进一步采用K-means聚类方法对每个第一子图像对应的列向量进行聚类,例如,每个第一子图像对应的列向量为75*1的列向量,则聚类对象的维度是75*1。通过聚类可以将多个列向量划分为几类,可以理解,聚类后的类的个数小于或等于聚类对象即列向量的个数,列向量所属的类即是列向量对应的第一子图像所属的类,即本实施例通过对第一子图像的细节信息构成的列向量进行聚类,来实现对第一子图像进行聚类。
假设第一图像被分解为M个第一子图像,经过聚类后得到N个类,N小于或等于M。假设N个类分别表示为G1、G2、G3......GN,每个类的协方差矩阵依次为Φ1、Φ2、Φ3......ΦN,假设Φn是N个类中的第n个类的协方差矩阵,对该协方差矩阵Φn进行特征值分解可以得到如下公式(5):
Figure PCTCN2017096627-appb-000028
其中,Qn是特征向量组成的方阵,Λn是特征值组成的对角阵,相应的,第n个类对应的字典为Pn,具体如公式(6)所示:
Figure PCTCN2017096627-appb-000029
其中,
Figure PCTCN2017096627-appb-000030
表示Qn的转置矩阵。
另外,N个类中除了第n个类之外的其他类对应的字典的计算方法同上所述,此处不一一列举。如此,G1、G2、G3......GN中每个类对应的字典分别为P1、P2、P3......PN
步骤S402、根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值。
具体的,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,包括:确定所述第一子图像所属 的类的协方差矩阵;通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
如图2所示,先采用上述聚类方法对第一子图像21、第一子图像22、第一子图像23、第一子图像24进行聚类,假设聚类后得到三个类,依次为G1、G2、G3,假设第一子图像21属于第一个类即G1,第一子图像22、第一子图像23属于第二个类即G2,第一子图像24属于第三个类即G3,每个类的协方差矩阵依次为Φ1、Φ2、Φ3,根据上述公式(5)和(6)可以计算出G1对应的字典P1、G2对应的字典P2、以及G3对应的字典P3
进一步将每个第一子图像的细节信息投影到每个第一子图像所属的类对应的字典中,例如,将第一子图像21的细节信息投影到第一子图像21所属的类对应的字典中;将第一子图像22的细节信息投影到第一子图像22所属的类对应的字典中;将第一子图像23的细节信息投影到第一子图像23所属的类对应的字典中;将第一子图像24的细节信息投影到第一子图像24所属的类对应的字典中。下面以第一子图像21的细节信息投影到第一子图像21所属的类对应的字典为例,介绍具体的投影过程,其他第一子图像的投影过程同理。
具体的,第一子图像21的细节信息为
Figure PCTCN2017096627-appb-000031
第一子图像21所属的类对应的字典为P1,第一子图像21的细节信息投影到第一子图像21所属的类对应的字典得到投影值,投影值为
Figure PCTCN2017096627-appb-000032
步骤S403、对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据。
进一步采用S型曲线对投影值
Figure PCTCN2017096627-appb-000033
进行调整,调整后的投影值为α,α和
Figure PCTCN2017096627-appb-000034
之间的关系可以通过公式(7)来确定:
Figure PCTCN2017096627-appb-000035
其中,w1表示S型曲线,γ表示阈值函数。对于未知数z来说,阈值函数γ可以表示为如下公式(8),S型曲线可以表示为如下公式(9):
Figure PCTCN2017096627-appb-000036
其中,max表示投影值的最大值,TN表示阈值。
w1(z)=(2/π)*arctan(z*b)      (9)
其中,b用于控制S型曲线的形状。
对第一子图像21的细节信息
Figure PCTCN2017096627-appb-000037
的投影值
Figure PCTCN2017096627-appb-000038
进行非线性压缩得到的第一压缩数据具体可以是P1 Tα,
Figure PCTCN2017096627-appb-000039
步骤S404、对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据。
可以采用S型曲线对第一子图像21的颜色信息
Figure PCTCN2017096627-appb-000040
进行非线性压缩,得到第二压缩数据具体为
Figure PCTCN2017096627-appb-000041
其中,w3的函数形式和w1的函数形式相同。
步骤S405、对所述第一子图像的均值信息进行线性压缩得到第三压缩数据。
第一子图像21的均值信息为第一子图像21在R通道、G通道、B通道三个通道上的总体均值m,对第一子图像21的均值信息进行线性压缩得到的第三压缩数据具体可以是w2*m,其中,w2是0-1范围内的一个数。
步骤S406、根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
根据第一子图像21的第一压缩数据P1 Tα、第二压缩数据
Figure PCTCN2017096627-appb-000042
和第三压缩数据w2*m进行图像重构得到第二子图像,第二子图像210,第二子图像210可以表示为yi,yi可根据公式(10)确定:
Figure PCTCN2017096627-appb-000043
第二子图像220、第二子图像230、第二子图像240的计算原理和第二子图像210的计算原理一致,此处不一一赘述。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种图像处理方法。图5为本发明另一实施例提供的图像处理方法的流程图。如图5所示,本实施例中的方法,可以包括:对高动态范围图像进行预处理,该高动态范围图像可以是步骤S101中的原始图像,预处理的过程与步骤S101的过程一致。对预处理后的高动态范围图像进行块分解,分解的过程与步骤S102一致,此处的块相当于上述实施例中的第一子图像,分解后得到每个块的细节信息、颜色信息、均值信息,对颜色信息进行颜色调整,具体可以是对颜色信息进行非线性压缩,如步骤S404所述的压缩过程得到第二压缩数据
Figure PCTCN2017096627-appb-000044
对细节信息进行聚类和建立字典,具体过程如步骤S401和步骤S402,进一步对细节信息进行投影和调整,具体过程如步骤S402和步骤S403。对均值信息进行均值调整,具体过程如步骤S405。对颜色信息进行颜色调整后的
Figure PCTCN2017096627-appb-000045
对细节信息进行投影和调整后的P1 Tα、对均值信息进行均值调整后的w2*m进行块重构,块重构的结果即为上述公式(10)所述的
Figure PCTCN2017096627-appb-000046
进一步对
Figure PCTCN2017096627-appb-000047
进行后续处理,后续处理可以包括:加权处理、像素值调整、像素值映射等过程,加权处理、像素值调整、像素值映射等过程与上述实施例所述的过程一致,此处不再赘述。最后得到低动态范围图像即上述实施例所述的目标图像。
图6为本发明另一实施例提供的图像处理方法的流程图。如图6所示,图6所示的方法和图5所示的方法的不同之处在于:在图5的基础上,对第一次块分解后的均值信息60进一步块分解得到细节信息61和均值信息62,对进一步分解后的细节信息61进行聚类和建立字典,以及投影和调整过程均与上述实施例一致,对进一步分解后的均值信息62进行均值调整也和上述实施例一致。对细节信息61进行聚类和建立字典,以及投影和调整后的结果和对均值信息62进行均值调整后的结果先进行一次块重构如63所示,进一步对颜色信息64进行颜色调整的结果、对细节信息65进行聚类和建立字典,以及投影和调整后的结果和对63所示的块重构后的结果再进行一次块重构如66所示,进一步对66所示的块重构后的结果进行后续处理,后续处理可以包括:加权处理、像素值调整、像素值映射等过程,加权处理、像素值调整、像素值映射等过程与上述实施例所述 的过程一致,此处不再赘述。最后得到低动态范围图像即上述实施例所述的目标图像。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种图像处理设备。图7为本发明实施例提供的图像处理设备的结构图,如图7所示,图像处理设备70包括一个或多个处理器71,一个或多个处理器71单独或协同工作,一个或多个处理器71用于:对原始图像进行预处理得到第一图像;将所述第一图像分解为多个第一子图像;确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及根据所述多个第二子图像,确定目标图像。
具体的,一个或多个处理器71根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像时,具体用于:通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
可选的,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
其中,一个或多个处理器71对原始图像进行预处理得到第一图像时,具体用于:将所述原始图像转换到RGB空间,得到第二图像;对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
可选的,一个或多个处理器71根据所述多个第二子图像,确定目标图像时,具体用于:按照每个第一子图像在所述第一图像中的位置,对每 个第一子图像对应的第二子图像进行排列构成第三图像;将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
另外,在一些实施例中,一个或多个处理器71将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
本发明实施例提供的图像处理设备的具体原理和实现方式均与图1所示实施例类似,此处不再赘述。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种图像处理设备。在图7所示实施例提供的技术方案的基础上,一个或多个处理器71确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息时,具体用于:计算所述第一子图像分别在R通道、G通道、B通道上的均值;根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
可选的,一个或多个处理器71根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息时,具体用于:根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息;根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
一个或多个处理器71计算所述第一子图像分别在R通道、G通道、B 通道上的均值时,具体用于:根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
一个或多个处理器71根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息时,具体用于:根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
一个或多个处理器71根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息时,具体用于:根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图像在B通道上的颜色信息。
可选的,所述第一子图像的均值信息为所述第一均值、所述第二均值和所述第三均值的均值。
本发明实施例提供的图像处理设备的具体原理和实现方式均与图3所示实施例类似,此处不再赘述。
本实施例通过计算所述第一子图像分别在R通道、G通道、B通道上的均值,根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,实现了对细节信息、颜色信息和均值信息的精确计算。
本发明实施例提供一种图像处理设备。在图7所示实施例提供的技术方案的基础上,一个或多个处理器71通过对所述第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性 压缩得到第二子图像时,具体用于:根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值;对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据;对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据;对所述第一子图像的均值信息进行线性压缩得到第三压缩数据;根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
另外,一个或多个处理器71根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理之前,还用于:通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
可选的,一个或多个处理器71根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理时,具体用于:确定所述第一子图像所属的类的协方差矩阵;通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
本发明实施例提供的图像处理设备的具体原理和实现方式均与图4所示实施例类似,此处不再赘述。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种无人飞行器。图8为本发明实施例提供的无人飞行器的结构图,如图8所示,无人飞行器100包括:机身、动力系统、飞行控制器118和图像处理设备109,所述动力系统包括如下至少一种:电机107、螺旋桨106和电子调速器117,动力系统安装在所述机身,用 于提供飞行动力;飞行控制器118与所述动力系统通讯连接,用于控制所述无人飞行器飞行。
另外,如图8所示,无人飞行器100还包括:传感系统108、通信系统110、支撑设备102、拍摄设备104,其中,支撑设备102具体可以是云台,通信系统110具体可以包括接收机,接收机用于接收地面站112的天线114发送的无线信号,116表示接收机和天线114通信过程中产生的电磁波。
图像处理设备109可以对拍摄设备104拍摄到的图像进行图像处理,图像处理的方法和上述方法实施例类似,图像处理设备109的具体原理和实现方式均与上述实施例类似,此处不再赘述。
本实施例通过对原始图像进行预处理得到第一图像,将第一图像分解为多个第一子图像,根据每个第一子图像的细节信息、颜色信息和均值信息,对每个第一子图像进行压缩生成多个第二子图像,根据多个第二子图像确定目标图像,对高动态范围图像进行色调映射时,并没有只是在亮度信息上进行色调映射,而是对细节信息、颜色信息和均值信息同时压缩,保证色调映射处理后的低动态范围图像可以保留高动态范围图像的色彩信息,避免低动态范围图像相比于高动态范围图像在色彩上产生偏移。
本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被一个或多个处理器执行时实现以下步骤:
对原始图像进行预处理得到第一图像;
将所述第一图像分解为多个第一子图像;
确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
根据所述多个第二子图像,确定目标图像。
可选的,所述根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像,包括:
通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
可选的,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
可选的,所述对原始图像进行预处理得到第一图像,包括:
将所述原始图像转换到RGB空间,得到第二图像;
对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
可选的,所述确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息,包括:
计算所述第一子图像分别在R通道、G通道、B通道上的均值;
根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
可选的,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,包括:
根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息;
根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
可选的,所述计算所述第一子图像分别在R通道、G通道、B通道上的均值,包括:
根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;
根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;
根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
可选的,所述根据所述第一子图像的R通道数据、G通道数据和B通 道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息,包括:
根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;
根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;
根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
可选的,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息,包括:
根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;
根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;
根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图像在B通道上的颜色信息。
可选的,所述第一子图像的均值信息为所述第一均值、所述第二均值和所述第三均值的均值。
可选的,所述通过对所述第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到第二子图像,包括:
根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值;
对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据;
对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据;
对所述第一子图像的均值信息进行线性压缩得到第三压缩数据;
根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
可选的,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理之前,还包括:
通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
可选的,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,包括:
确定所述第一子图像所属的类的协方差矩阵;
通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;
将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
可选的,所述根据所述多个第二子图像,确定目标图像,包括:
按照每个第一子图像在所述第一图像中的位置,对每个第一子图像对应的第二子图像进行排列构成第三图像;
将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
可选的,所述将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:
调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选 择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (46)

  1. 一种图像处理方法,其特征在于,包括:
    对原始图像进行预处理得到第一图像;
    将所述第一图像分解为多个第一子图像;
    确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
    根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
    根据所述多个第二子图像,确定目标图像。
  2. 根据权利要求1所述的方法,其特征在于,所述根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像,包括:
    通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
  3. 根据权利要求1或2所述的方法,其特征在于,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
  4. 根据权利要求1-3任一项所述的方法,其特征在于,所述对原始图像进行预处理得到第一图像,包括:
    将所述原始图像转换到RGB空间,得到第二图像;
    对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
  5. 根据权利要求4所述的方法,其特征在于,所述确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息,包括:
    计算所述第一子图像分别在R通道、G通道、B通道上的均值;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
  6. 根据权利要求5所述的方法,其特征在于,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,包括:
    根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及 所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
  7. 根据权利要求5或6所述的方法,其特征在于,所述计算所述第一子图像分别在R通道、G通道、B通道上的均值,包括:
    根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;
    根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;
    根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
  8. 根据权利要求7所述的方法,其特征在于,所述根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息,包括:
    根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;
    根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;
    根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
  9. 根据权利要求7所述的方法,其特征在于,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息,包括:
    根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;
    根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;
    根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图像在B通道上的颜色信息。
  10. 根据权利要求6-9任一项所述的方法,其特征在于,所述第一子图像的均值信息为第一均值、第二均值和第三均值的均值。
  11. 根据权利要求2-10任一项所述的方法,其特征在于,通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像,包括:
    根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值;
    对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据;
    对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据;
    对所述第一子图像的均值信息进行线性压缩得到第三压缩数据;
    根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
  12. 根据权利要求11所述的方法,其特征在于,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理之前,还包括:
    通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
  13. 根据权利要求11或12所述的方法,其特征在于,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,包括:
    确定所述第一子图像所属的类的协方差矩阵;
    通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;
    将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
  14. 根据权利要求1-13任一项所述的方法,其特征在于,所述根据所述多个第二子图像,确定目标图像,包括:
    按照每个第一子图像在所述第一图像中的位置,对每个第一子图像对应的第二子图像进行排列构成第三图像;
    将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
  15. 根据权利要求14所述的方法,其特征在于,所述将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:
    调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
  16. 一种图像处理设备,其特征在于,包括一个或多个处理器,单独或协同工作,所述一个或多个处理器用于:
    对原始图像进行预处理得到第一图像;
    将所述第一图像分解为多个第一子图像;
    确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
    根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
    根据所述多个第二子图像,确定目标图像。
  17. 根据权利要求16所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像时,具体用于:
    通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
  18. 根据权利要求16或17所述的图像处理设备,其特征在于,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
  19. 根据权利要求16-18任一项所述的图像处理设备,其特征在于,所述一个或多个处理器对原始图像进行预处理得到第一图像时,具体用于:
    将所述原始图像转换到RGB空间,得到第二图像;
    对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
  20. 根据权利要求19所述的图像处理设备,其特征在于,所述一个或多个处理器确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息时,具体用于:
    计算所述第一子图像分别在R通道、G通道、B通道上的均值;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
  21. 根据权利要求20所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息时,具体用于:
    根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
  22. 根据权利要求20或21所述的图像处理设备,其特征在于,所述一个或多个处理器计算所述第一子图像分别在R通道、G通道、B通道上的均值时,具体用于:
    根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;
    根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;
    根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
  23. 根据权利要求22所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息时,具体用于:
    根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;
    根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;
    根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
  24. 根据权利要求22所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息时,具体用于:
    根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;
    根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;
    根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图像在B通道上的颜色信息。
  25. 根据权利要求21-24任一项所述的图像处理设备,其特征在于,所述第一子图像的均值信息为第一均值、第二均值和第三均值的均值。
  26. 根据权利要求17-25任一项所述的图像处理设备,其特征在于,所述一个或多个处理器通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像时,具体用于:
    根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值;
    对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据;
    对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据;
    对所述第一子图像的均值信息进行线性压缩得到第三压缩数据;
    根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
  27. 根据权利要求26所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述第一子图像的细节信息和所述第一子图像所属的 类,对所述第一子图像进行投影处理之前,还用于:
    通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
  28. 根据权利要求26或27所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理时,具体用于:
    确定所述第一子图像所属的类的协方差矩阵;
    通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;
    将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
  29. 根据权利要求16-28任一项所述的图像处理设备,其特征在于,所述一个或多个处理器根据所述多个第二子图像,确定目标图像时,具体用于:
    按照每个第一子图像在所述第一图像中的位置,对每个第一子图像对应的第二子图像进行排列构成第三图像;
    将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
  30. 根据权利要求29所述的图像处理设备,其特征在于,所述一个或多个处理器将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:
    调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
  31. 一种无人飞行器,其特征在于,包括:
    机身;
    动力系统,安装在所述机身,用于提供飞行动力;
    以及如权利要求16-30任一项所述的图像处理设备。
  32. 一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被一个或多个处理器执行时实现以下步骤:
    对原始图像进行预处理得到第一图像;
    将所述第一图像分解为多个第一子图像;
    确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息;
    根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像;以及
    根据所述多个第二子图像,确定目标图像。
  33. 根据权利要求32所述的计算机可读存储介质,其特征在于,所述根据所述细节信息、所述颜色信息和所述均值信息,压缩所述多个第一子图像以生成多个第二子图像,包括:
    通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像。
  34. 根据权利要求32或33所述的计算机可读存储介质,其特征在于,所述原始图像为高动态范围图像,所述目标图像为低动态范围图像。
  35. 根据权利要求32-34任一项所述的计算机可读存储介质,其特征在于,所述对原始图像进行预处理得到第一图像,包括:
    将所述原始图像转换到RGB空间,得到第二图像;
    对所述第二图像进行全局调整,得到所述第一图像,所述第一图像包括R通道数据、G通道数据和B通道数据。
  36. 根据权利要求35所述的计算机可读存储介质,其特征在于,所述确定所述多个第一子图像中每个第一子图像的细节信息、颜色信息和均值信息,包括:
    计算所述第一子图像分别在R通道、G通道、B通道上的均值;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息。
  37. 根据权利要求36所述的计算机可读存储介质,其特征在于,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像的细节信息、颜色信息和均值信息,包括:
    根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息;
    根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息。
  38. 根据权利要求36或37所述的计算机可读存储介质,其特征在于,所述计算所述第一子图像分别在R通道、G通道、B通道上的均值,包括:
    根据所述第一子图像的R通道数据计算所述第一子图像在R通道上的第一均值;
    根据所述第一子图像的G通道数据计算所述第一子图像在G通道上的第二均值;
    根据所述第一子图像的B通道数据计算所述第一子图像在B通道上的第三均值。
  39. 根据权利要求38所述的计算机可读存储介质,其特征在于,所述根据所述第一子图像的R通道数据、G通道数据和B通道数据,以及所述第一子图像分别在R通道、G通道、B通道上的均值,确定所述第一子图像在每个通道上的细节信息,包括:
    根据所述第一子图像的R通道数据和所述第一均值,确定所述第一子图像在R通道上的细节信息;
    根据所述第一子图像的G通道数据和所述第二均值,确定所述第一子图像在G通道上的细节信息;
    根据所述第一子图像的B通道数据和所述第三均值,确定所述第一子图像在B通道上的细节信息。
  40. 根据权利要求38所述的计算机可读存储介质,其特征在于,所述根据所述第一子图像分别在R通道、G通道、B通道上的均值,以及所述第一子图像的均值信息,确定所述第一子图像在每个通道上的颜色信息,包括:
    根据所述第一均值和所述第一子图像的均值信息,确定所述第一子图像在R通道上的颜色信息;
    根据所述第二均值和所述第一子图像的均值信息,确定所述第一子图像在G通道上的颜色信息;
    根据所述第三均值和所述第一子图像的均值信息,确定所述第一子图 像在B通道上的颜色信息。
  41. 根据权利要求37-40任一项所述的计算机可读存储介质,其特征在于,所述第一子图像的均值信息为第一均值、第二均值和第三均值的均值。
  42. 根据权利要求33-41任一项所述的计算机可读存储介质,其特征在于,通过对每个第一子图像的颜色信息和细节信息进行非线性压缩,以及对所述第一子图像的均值信息进行线性压缩得到所述第二子图像,包括:
    根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,得到所述第一子图像的细节信息的投影值;
    对所述第一子图像的细节信息的投影值进行非线性压缩得到第一压缩数据;
    对所述第一子图像的颜色信息进行非线性压缩得到第二压缩数据;
    对所述第一子图像的均值信息进行线性压缩得到第三压缩数据;
    根据所述第一压缩数据、所述第二压缩数据和所述第三压缩数据进行图像重构得到所述第二子图像。
  43. 根据权利要求42所述的计算机可读存储介质,其特征在于,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理之前,还包括:
    通过对每个第一子图像的细节信息进行聚类,确定每个第一子图像所属的类。
  44. 根据权利要求42或43所述的计算机可读存储介质,其特征在于,所述根据所述第一子图像的细节信息和所述第一子图像所属的类,对所述第一子图像进行投影处理,包括:
    确定所述第一子图像所属的类的协方差矩阵;
    通过分解所述协方差矩阵,确定所述第一子图像所属的类对应的字典;
    将所述第一子图像的细节信息投影到所述第一子图像所属的类对应的字典中。
  45. 根据权利要求32-44任一项所述的计算机可读存储介质,其特征 在于,所述根据所述多个第二子图像,确定目标图像,包括:
    按照每个第一子图像在所述第一图像中的位置,对每个第一子图像对应的第二子图像进行排列构成第三图像;
    将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内,得到所述目标图像。
  46. 根据权利要求45所述的计算机可读存储介质,其特征在于,所述将所述第三图像中每个像素点的像素值映射到显示设备的动态范围内之前,还包括:
    调整所述第三图像中像素点的像素值,以提高所述第三图像的对比度。
PCT/CN2017/096627 2017-08-09 2017-08-09 图像处理方法、设备及计算机可读存储介质 WO2019028700A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/CN2017/096627 WO2019028700A1 (zh) 2017-08-09 2017-08-09 图像处理方法、设备及计算机可读存储介质
CN201780017196.7A CN108885782B (zh) 2017-08-09 2017-08-09 图像处理方法、设备及计算机可读存储介质
US16/731,026 US20200143525A1 (en) 2017-08-09 2019-12-30 Image processing method, device and computer readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/096627 WO2019028700A1 (zh) 2017-08-09 2017-08-09 图像处理方法、设备及计算机可读存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/731,026 Continuation US20200143525A1 (en) 2017-08-09 2019-12-30 Image processing method, device and computer readable storage medium

Publications (1)

Publication Number Publication Date
WO2019028700A1 true WO2019028700A1 (zh) 2019-02-14

Family

ID=64325922

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/096627 WO2019028700A1 (zh) 2017-08-09 2017-08-09 图像处理方法、设备及计算机可读存储介质

Country Status (3)

Country Link
US (1) US20200143525A1 (zh)
CN (1) CN108885782B (zh)
WO (1) WO2019028700A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473156A (zh) * 2019-08-12 2019-11-19 Oppo广东移动通信有限公司 图像信息的处理方法、装置、存储介质及电子设备
CN112862709A (zh) * 2021-01-27 2021-05-28 昂纳工业技术(深圳)有限公司 图像特征增强方法、装置及可读存储介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11381757B2 (en) * 2019-06-13 2022-07-05 Motherson Innovations Company Limited Imaging system and method
JP7344654B2 (ja) * 2019-03-07 2023-09-14 キヤノン株式会社 撮像装置及び再生装置及びそれらの制御方法及びプログラム
CN112154474A (zh) * 2019-07-30 2020-12-29 深圳市大疆创新科技有限公司 图像处理方法、系统、可移动平台及存储介质
CN110796595B (zh) * 2019-10-31 2022-03-01 北京大学深圳研究生院 一种色调映射方法、装置及电子设备
CN110909187B (zh) * 2019-11-07 2023-01-10 苏州浪潮智能科技有限公司 图像存储方法、图像读取方法、图像存储器及存储介质
CN112188085B (zh) * 2020-09-04 2022-04-01 上海摩象网络科技有限公司 一种图像处理方法及手持云台相机
CN112634334B (zh) * 2020-12-24 2023-09-01 长春理工大学 基于融合像素调制的超高动态投影显示方法和系统
CN113222992B (zh) * 2021-06-21 2022-05-03 苏州大学 基于多重分形谱的裂纹特征表征方法及系统
CN114999363A (zh) * 2022-06-13 2022-09-02 百果园技术(新加坡)有限公司 色偏校正方法、装置、设备、存储介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1714372A (zh) * 2002-11-29 2005-12-28 Uea恩特普里西斯公司 图像信号处理
CN102339461A (zh) * 2010-07-27 2012-02-01 夏普株式会社 图像增强方法和设备
CN103971340A (zh) * 2014-05-15 2014-08-06 中国科学院光电技术研究所 一种高位宽数字图像动态范围压缩和细节增强方法
CN106780375A (zh) * 2016-12-02 2017-05-31 南京邮电大学 一种低照度环境下的图像增强方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7873212B2 (en) * 2006-01-24 2011-01-18 Nokia Corporation Compression of images for computer graphics
US9230312B2 (en) * 2010-01-27 2016-01-05 Adobe Systems Incorporated Methods and apparatus for performing tone mapping on high dynamic range images
CN104408752B (zh) * 2014-12-11 2017-07-04 西安电子科技大学 一种基于混合色调映射算法的高动态范围图像压缩方法
CN106920221B (zh) * 2017-03-10 2019-03-26 重庆邮电大学 兼顾亮度分布和细节呈现的曝光融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1714372A (zh) * 2002-11-29 2005-12-28 Uea恩特普里西斯公司 图像信号处理
CN102339461A (zh) * 2010-07-27 2012-02-01 夏普株式会社 图像增强方法和设备
CN103971340A (zh) * 2014-05-15 2014-08-06 中国科学院光电技术研究所 一种高位宽数字图像动态范围压缩和细节增强方法
CN106780375A (zh) * 2016-12-02 2017-05-31 南京邮电大学 一种低照度环境下的图像增强方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473156A (zh) * 2019-08-12 2019-11-19 Oppo广东移动通信有限公司 图像信息的处理方法、装置、存储介质及电子设备
CN110473156B (zh) * 2019-08-12 2022-08-02 Oppo广东移动通信有限公司 图像信息的处理方法、装置、存储介质及电子设备
CN112862709A (zh) * 2021-01-27 2021-05-28 昂纳工业技术(深圳)有限公司 图像特征增强方法、装置及可读存储介质
CN112862709B (zh) * 2021-01-27 2024-05-03 昂视智能(深圳)有限公司 图像特征增强方法、装置及可读存储介质

Also Published As

Publication number Publication date
CN108885782B (zh) 2022-04-26
US20200143525A1 (en) 2020-05-07
CN108885782A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
WO2019028700A1 (zh) 图像处理方法、设备及计算机可读存储介质
US10499085B1 (en) Image signal processing based encoding hints for bitrate control
US10931851B2 (en) Image stitching with electronic rolling shutter correction
US11798147B2 (en) Image processing method and device
US20200258200A1 (en) Double non-local means denoising
US10645358B2 (en) Saturation management for luminance gains in image processing
CN114079779B (zh) 图像处理方法、智能终端及存储介质
US10902558B2 (en) Multiscale denoising of raw images with noise estimation
KR20190040416A (ko) 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
WO2017205492A1 (en) Three-dimensional noise reduction
WO2022001806A1 (zh) 图像变换方法和装置
US11908111B2 (en) Image processing including noise reduction
US20220191448A1 (en) Multiple tone control
US20210166354A1 (en) Chrominance Denoising
CN111539353A (zh) 一种图像场景识别方法及装置、计算机设备以及存储介质
KR102609734B1 (ko) 전자 장치 및 이미지의 전송 상태에 기반하여 이미지를 보정하는 방법
US11425300B2 (en) Electronic device and method for processing image by electronic device
US11303805B2 (en) Electronic device for compressing image by using compression attribute generated in image acquisition procedure using image sensor, and operating method thereof
CN114881886A (zh) 图像处理方法、装置、电子设备及存储介质
WO2019090473A1 (zh) 全景图像显示方法和系统、全景图像处理方法和地面站
KR20190101833A (ko) 이미지가 분할된 복수의 블록들의 압축과 관련된 압축 손실 데이터에 기반하여 이미지를 압축하는 전자 장치 및 그 동작 방법
CN117132629B (zh) 图像处理方法和电子设备
WO2023124165A1 (zh) 一种图像处理方法及相关电子设备
CN112967194A (zh) 目标图像生成方法及装置、计算机可读介质和电子设备
US20210306624A1 (en) Electronic device for performing image compression and operating method of electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17920971

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17920971

Country of ref document: EP

Kind code of ref document: A1