ES2784905T3 - Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico - Google Patents

Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico Download PDF

Info

Publication number
ES2784905T3
ES2784905T3 ES18160298T ES18160298T ES2784905T3 ES 2784905 T3 ES2784905 T3 ES 2784905T3 ES 18160298 T ES18160298 T ES 18160298T ES 18160298 T ES18160298 T ES 18160298T ES 2784905 T3 ES2784905 T3 ES 2784905T3
Authority
ES
Spain
Prior art keywords
image
images
reference image
noise reduction
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18160298T
Other languages
English (en)
Inventor
Gong Zhang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Application granted granted Critical
Publication of ES2784905T3 publication Critical patent/ES2784905T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

Un método de procesamiento de imágenes implementado por computadora, que comprende: seleccionar (102) una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente que comprende seleccionar una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como imagen de referencia; seleccionar (104) una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia, que comprende seleccionar la una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes, la una o más primeras imágenes que tienen un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y la una o más primeras imágenes que tienen un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia; fusionar (106) la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen; y realizar (108) reducción de ruido en la segunda imagen.

Description

DESCRIPCIÓN
Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico
Campo
La presente divulgación se refiere a un campo de la tecnología informática y, más particularmente, a un método y un dispositivo de procesamiento de imágenes, a un medio de almacenamiento legible por computadora y a un dispositivo electrónico.
Antecedentes
Durante una captura de imagen puede existir una gran cantidad de ruido en la imagen debido a un aparato de formación de imágenes en sí mismo y una influencia del entorno. Un efecto visual de la imagen puede verse afectado debido a la gran cantidad de ruido. Durante un procesamiento de imágenes, se requiere eliminar el ruido de la imagen para eliminar la interferencia causada por el ruido de la imagen. En un procesamiento de imágenes convencional, se pueden adoptar un filtro de medios, un filtro Wiener adaptativo y un filtro mediano para eliminar el ruido de la imagen. Los filtros varían con los tipos de ruido.
El documento CN106127698A, se refiere a un método y un aparato de procesamiento de eliminación de ruido de imágenes. El método incluye recibir una instrucción de disparo; realizar disparos continuos para obtener múltiples fotogramas de imágenes originales; obtener un valor de brillo ambiental y/o un valor ISO correspondiente a un entorno de disparo; evaluar si se cumple una de al menos las siguientes condiciones: el valor de brillo ambiental es menor o igual que un valor de brillo preestablecido, y el valor de ISO es mayor o igual que un valor de ISO preestablecido; en caso afirmativo, obtener una imagen original a la que se le ha de eliminar el ruido de acuerdo con el valor de brillo ambiental o el valor ISO; y obtener datos RAW de la imagen original a la que se le ha de eliminar el ruido, convertir los datos RAW en datos YUV y realizar un procesamiento de eliminación de ruido de múltiples fotogramas en los datos YUV para obtener una imagen de salida.
Resumen
Un método de procesamiento de imágenes implementado por computadora incluye: seleccionar una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente, que incluye seleccionar una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia; seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia, que incluye seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes, la una o más primeras imágenes que tienen un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y la una o más primeras imágenes que tienen un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia; sintetizar la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen; y realizar la reducción de ruido en la segunda imagen.
En al menos una realización, realizar la reducción de ruido en la segunda imagen incluye: comparar un valor sumado del número de la imagen de referencia y del número de la una o más primeras imágenes con una tabla de búsqueda para determinar un nivel reducción de ruido, en el que la tabla de búsqueda registra el nivel de reducción de ruido con respecto al valor sumado; y realizar la reducción de ruido en la segunda imagen de acuerdo con el nivel de reducción de ruido.
En al menos una realización, realizar la reducción de ruido en la segunda imagen incluye: realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen.
En al menos una realización, fusionar la imagen de referencia y la una o más primeras imágenes para obtener la segunda imagen incluye: determinar píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes, estando los píxeles de referencia en la imagen de referencia en correspondencia con los píxeles de referencia de la una o más primeras imágenes; adquirir un modo de alineación de la imagen de referencia y de la una o más primeras imágenes en base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, en el que el modo de alineación se adquiere de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes; alinear la imagen de referencia con la una o más primeras imágenes en base al modo de alineación; y fusionar la imagen de referencia alineada y la una o más primeras imágenes alineadas para obtener la segunda imagen.
Un dispositivo de procesamiento de imágenes incluye: un módulo de selección configurado para seleccionar una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente, seleccionando una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia, y para seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia, seleccionando la una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes, la una o más primeras imágenes que tienen un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y la una o más primeras imágenes que tienen un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia; un módulo de fusión configurado para fusionar la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen; y un módulo de reducción de ruido configurado para realizar la reducción de ruido en la segunda imagen. En al menos una realización, el módulo de reducción de ruido está configurado, además, para: comparar un valor sumado del número de la imagen de referencia y del número de la una o más primeras imágenes con una tabla de búsqueda para determinar un nivel de reducción de ruido, en el que la tabla de búsqueda registra el nivel de reducción de ruido con respecto al valor sumado; y realizar la reducción de ruido en la segunda imagen de acuerdo con el nivel de reducción de ruido.
En al menos una realización, el módulo de reducción de ruido está configurado, además, para: realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen.
En al menos una realización, el módulo de fusión está configurado, además, para: determinar píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes, los píxeles de referencia en la imagen de referencia que están en correspondencia con los píxeles de referencia de la una o más primeras imágenes; adquirir un modo de alineación de la imagen de referencia y de la una o más primeras imágenes en base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, en el que el modo de alineación se adquiere de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes; alinear la imagen de referencia con la una o más primeras imágenes en base al modo de alineación; y fusionar la imagen de referencia alineada y la una o más primeras imágenes alineadas para obtener la segunda imagen.
Un medio de almacenamiento legible por computadora almacena un programa informático en él. Cuando un procesador ejecuta el programa informático, se realiza el método de procesamiento de imágenes anterior.
Breve descripción de los dibujos
La Fig. 1 es un diagrama de flujo que ilustra un método de procesamiento de imágenes de acuerdo con la presente divulgación.
La Fig. 2 es un diagrama de bloques que ilustra un dispositivo de procesamiento de imágenes de acuerdo con la presente divulgación.
La Fig. 3 es un diagrama de bloques que ilustra estructuras parciales de un dispositivo electrónico proporcionado en la presente divulgación.
Descripción detallada
Con el fin de hacer más explícitos los propósitos, las soluciones técnicas y las ventajas de la presente divulgación, la presente divulgación se describirá con más detalle en combinación con los dibujos y las realizaciones. Debe entenderse que las realizaciones específicas descritas en el presente documento se utilizan simplemente para explicar la presente divulgación, pero no para limitar la presente divulgación.
La Fig. 1 es un diagrama de flujo que ilustra un método de procesamiento de imágenes de acuerdo con la presente divulgación. Como se ilustra en la Fig. 1, el método de procesamiento de imágenes incluye los bloques 102-108. En el bloque 102, se selecciona una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente.
La pluralidad de imágenes capturadas secuencialmente puede adquirirse fotografiando, o pueden adquirirse tomando una porción de un video. Una fotografía archivada en cada una de la pluralidad de imágenes capturadas secuencialmente es sustancialmente idéntica entre sí. Es decir, se puede obtener una imagen fusionada superponiendo y fusionando la pluralidad de imágenes capturadas secuencialmente. Después de adquirirse la pluralidad de imágenes capturadas secuencialmente, la imagen de referencia puede seleccionarse de entre la pluralidad de imágenes capturadas secuencialmente. La imagen de referencia se refiere a una imagen estándar configurada para una fusión de múltiples imágenes (la fusión de múltiples imágenes supone fusionar múltiples imágenes). Es decir, sobre la base de la imagen de referencia, se seleccionan algunas imágenes de entre la pluralidad de imágenes capturadas secuencialmente para la fusión de múltiples imágenes. Una manera de seleccionar la imagen de referencia puede describirse como sigue. Se calcula un valor de nitidez de cada una de la pluralidad de imágenes, y se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes como imagen de referencia. Generalmente, cuando la pluralidad de imágenes capturadas secuencialmente se adquiere fotografiando, el número de la pluralidad de imágenes se determina de acuerdo con un algoritmo preestablecido. Después de adquirir la pluralidad de imágenes capturadas secuencialmente, se puede evaluar si se puede realizar un proceso de múltiples imágenes en la pluralidad de imágenes adquiridas. Las imágenes en las que se puede realizar el proceso de múltiples imágenes se seleccionan para adquirir la imagen de referencia.
En el bloque 104, se seleccionan una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia.
Después de seleccionarse la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente, se adquieren el valor de luminancia y el valor de nitidez de la imagen de referencia. Cuando la imagen de referencia está en un formato de YUV (YUV es un sistema de codificación de color que generalmente se utiliza como parte de una tubería de imagen en color. Codifica una imagen o video en color teniendo en cuenta la percepción humana, permitiendo un ancho de banda reducido para los componentes de crominancia, permitiendo normalmente así que los errores de transmisión o los artefactos de compresión se enmascaren de manera más eficiente por la percepción humana que utilizando una representación RGB “directa”), se adquiere un valor Y como el valor de luminancia de la imagen de referencia. Cuando la imagen de referencia no está en el formato de YUV, la imagen de referencia se convierte al formato de YUV y luego se adquiere el valor de luminancia. Por ejemplo, cuando la imagen de referencia está en formato de RAW (un archivo de imagen en bruto de la cámara contiene datos mínimamente procesados del sensor de imagen de una cámara digital, un escáner de imagen o un escáner de película de imágenes en movimiento), la imagen de referencia se convierte del formato de RAW al formato de YUV, y el valor Y se adquiere como el valor de luminancia. Las funciones de evaluación convencionales de la nitidez de imagen incluyen, principalmente: una función de cambio de escala de grises, una función de gradiente y una función de entropía de escala de grises de imagen y similares. Las funciones de evaluación de la nitidez de imagen varían con las imágenes a ser evaluadas. De acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia, la una o más primeras imágenes pueden seleccionarse de entre la pluralidad de imágenes. La primera imagen se refiere a una imagen configurada, junto con la imagen de referencia, para la fusión de múltiples imágenes. Seleccionar la una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes de acuerdo con el valor de luminancia y el valor de nitidez de la referencia incluye lo siguiente. Tomando el valor de luminancia y el valor de nitidez de la imagen de referencia como estándares, se selecciona una imagen que tiene un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia y que tiene un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia. Por ejemplo, cuando el valor de luminancia de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 100 y el valor de nitidez de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 30, una imagen que tiene el valor de luminancia dentro del 85 % al 115 % del valor de luminancia de la imagen de referencia y que tiene el valor de nitidez dentro del 90 % al 110 % del valor de nitidez de la imagen de referencia (es decir, una imagen que tiene el valor de luminancia dentro de un rango de 85 a 115 y que tiene el valor de nitidez dentro de un rango de 27 a 30) se selecciona como una de la una o más primeras imágenes.
En el bloque 106, la imagen de referencia y la una o más primeras imágenes se fusionan para obtener una segunda imagen.
Después de seleccionarse la imagen de referencia y la una o más primeras imágenes, la fusión de múltiples imágenes se realiza en la imagen de referencia y en la una o más primeras imágenes, a fin de obtener la segunda imagen. La segunda imagen se refiere a una imagen fusionada, obtenida después de la fusión de múltiples imágenes. Adquirir la segunda imagen después de la fusión de múltiples imágenes incluye lo siguiente. Se adquiere una pluralidad de imágenes. Se determinan los píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes. Los píxeles de referencia en la imagen de referencia pueden estar en correspondencia con los píxeles de referencia de la una o más primeras imágenes. En base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, se adquiere un modo de alineación de la imagen de referencia y de la una o más primeras imágenes. La imagen de referencia se alinea con la una o más primeras imágenes en base al modo de alineación. La imagen de referencia alineada y la una o más primeras imágenes alineadas se fusionan para obtener la segunda imagen. El modo de alineación puede adquirirse de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes.
En el bloque 108, se realiza la reducción de ruido en la segunda imagen.
Después de obtenerse la segunda imagen después de la fusión de múltiples imágenes, necesita realizar la reducción de ruido en la segunda imagen. Los puntos ruidosos están desordenados y cada una de la pluralidad de imágenes tiene los puntos ruidosos. Los puntos ruidosos pueden apantallarse fácilmente mediante la fusión de múltiples imágenes para realizar la reducción de ruido en la imagen fusionada. Por ejemplo, para dos imágenes capturadas secuencialmente, una imagen anterior tiene un punto ruidoso rojo en una posición determinada y una última imagen tiene un punto ruidoso verde en la misma posición determinada. Cuando las dos imágenes se fusionan, puede existir un punto ruidoso blanco en una posición superpuesta de los puntos ruidosos rojo y verde. Se puede realizar un algoritmo de interpolación en el punto ruidoso blanco para realizar la reducción de ruido.
Con el método de procesamiento de imágenes de acuerdo con la presente divulgación, después de seleccionarse la imagen de referencia de entre la pluralidad de imágenes, la una o más primeras imágenes se seleccionan de entre las imágenes restantes de acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia. Por lo tanto, se puede garantizar una consistencia de imagen después de la fusión de múltiples imágenes. Además, es eficaz para eliminar el ruido de la imagen fusionada y mejorar una calidad de imagen.
En un ejemplo, realizar la reducción de ruido en el bloque 108 incluye lo siguiente. El número sumado de la imagen de referencia y de la una o más primeras imágenes se compara con una tabla de búsqueda para determinar un nivel de reducción de ruido. La tabla de búsqueda registra el nivel de reducción de ruido con respecto al número sumado de la imagen de referencia y de la una o más primeras imágenes. La reducción de ruido se realiza en la segunda imagen de acuerdo con el nivel de reducción de ruido.
Cuando la reducción de ruido se realiza en la segunda imagen, se selecciona un correspondiente nivel de reducción de ruido de acuerdo con el número sumado de la imagen de referencia y de la una o más primeras imágenes. Es decir, para una imagen fusionada diferente, obtenida después de la fusión de múltiples imágenes, se adopta un nivel de reducción de ruido diferente. El nivel de reducción de ruido se determina de acuerdo con el número de las imágenes configuradas para la fusión de múltiples imágenes. Cuando el número de las imágenes configuradas para la fusión de múltiples imágenes es mayor, la imagen fusionada tiene poco ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más bajo para conservar más detalles de la imagen fusionada. Cuando el número de imágenes configuradas para la fusión de múltiples imágenes es menor, la imagen fusionada tiene más ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más alto con una potente capacidad de reducción de ruido para hacer que la imagen fusionada sea más clara. Por ejemplo, tomando 6 imágenes como ejemplo, la reducción de ruido tiene 6 niveles. Del 1.er nivel al 6.° nivel, aumenta una potencia de reducción de ruido. Cuando se configuran 6 imágenes para la fusión de múltiples imágenes, se selecciona el 1.er nivel de reducción de ruido para la imagen fusionada. Cuando se configuran 5 imágenes para la fusión de múltiples imágenes, se selecciona el 2.° nivel de reducción de ruido para la imagen fusionada.
En los métodos de reducción de ruido convencionales, se adopta el mismo nivel de reducción de ruido para la imagen fusionada, lo que tiene un efecto pobre de reducción de ruido cuando el número de imágenes configuradas para la fusión de imágenes múltiples es menor y el ruido en las imágenes es mayor. Con el método de procesamiento de imágenes de acuerdo con la presente divulgación, se selecciona el correspondiente nivel de reducción de ruido de acuerdo con el número de las imágenes configuradas para la fusión de múltiples imágenes. Por lo tanto, para el diferente número de las imágenes, se selecciona un diferente nivel de reducción de ruido para la imagen fusionada, y se logra una reducción de ruido adaptativa de acuerdo con el número de las imágenes. Además, se pueden conservar los detalles de la imagen cuando el ruido en las imágenes es menor, mientras se puede garantizar la nitidez de imagen cuando el ruido en las imágenes es mayor.
En un ejemplo, realizar la reducción de ruido en la segunda imagen en el bloque 108 incluye lo siguiente. La reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen.
Cuando se realiza la reducción de ruido en la segunda imagen, se pueden realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen. El ruido de luminancia es un ruido incoloro, que se muestra en una porción gruesa de la imagen como aproximadamente granular. El ruido de crominancia es un punto de color primario en la imagen, que es nítido en una porción más plana del nivel oscuro de la imagen, y no es nítido en una porción brillante o en una porción ocupada por un objeto blanco. Una potencia de la reducción de ruido de luminancia es menor. Una potencia de la reducción de ruido de crominancia es mayor sin destruir las disposiciones de color de la imagen. Después de la reducción de ruido de luminancia y la reducción de ruido de crominancia, la imagen puede ser más clara.
Con el método de procesamiento de imágenes de acuerdo con la presente divulgación, la reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen. Por lo tanto, la imagen es más clara después de la reducción de ruido, para mejorar la calidad de imagen.
En un ejemplo, seleccionar la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente en el bloque 102 incluye lo siguiente. Se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia.
Cuando se selecciona la imagen de referencia, al comparar los valores de nitidez de imagen, se selecciona la imagen que tiene el valor de nitidez máximo como la imagen de referencia. Se pueden adoptar varios algoritmos para adquirir el valor de nitidez de imagen. En general, los algoritmos de evaluación de la nitidez de imagen incluyen cuatro algoritmos: una detección de gradiente de borde, una detección basada en correlación, una detección basada en estadísticas y una detección basada en cambios. Un algoritmo de evaluación diferente es adecuado para un procesamiento de imágenes diferente. El algoritmo de evaluación se selecciona de acuerdo con la imagen adquirida. Después de que el valor de nitidez de cada una de la pluralidad de imágenes se adquiere con el algoritmo de evaluación, al comparar los valores de nitidez de la pluralidad de imágenes, se selecciona la imagen que tiene el valor de nitidez máximo como la imagen de referencia.
Con el método de procesamiento de imágenes de acuerdo con la presente divulgación, seleccionando la imagen que tiene el valor de nitidez máximo como la imagen de referencia, la nitidez de la imagen fusionada puede ser mayor y la calidad de imagen puede ser mejor.
La Fig. 2 es un diagrama de bloques que ilustra un dispositivo de procesamiento de imágenes de acuerdo con la presente divulgación. Como se ilustra en la Fig. 2, el dispositivo de procesamiento de imágenes incluye un módulo 202 de selección, un módulo 204 de fusión y un módulo 206 de reducción de ruido.
El módulo 202 de selección está configurado para seleccionar una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente y para seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia.
El módulo 204 de fusión está configurado para fusionar la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen.
El módulo 206 de reducción de ruido está configurado para realizar la reducción de ruido en la segunda imagen. En un ejemplo, el módulo 202 de selección está configurado, además, para seleccionar una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia.
En un ejemplo, el módulo 206 de reducción de ruido está configurado, además, para comparar el número sumado de la imagen de referencia y de la una o más primeras imágenes con una tabla de búsqueda para determinar un nivel de reducción de ruido, en el que la tabla de búsqueda registra el nivel de reducción de ruido con respecto al número sumado de la imagen de referencia y de la una o más primeras imágenes, y para realizar la reducción de ruido en la segunda imagen de acuerdo con el nivel de reducción de ruido.
En un ejemplo, el módulo 206 de reducción de ruido está configurado, además, para realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen.
La división de módulos anteriores en el dispositivo de procesamiento de imágenes es meramente ejemplar. En otros ejemplos, el dispositivo de procesamiento de imágenes se puede dividir en diferentes módulos bajo demanda, para lograr todas o parte de las funciones del dispositivo de procesamiento de imágenes.
La presente divulgación proporciona, además, un medio de almacenamiento legible por computadora. El medio de almacenamiento legible por computadora almacena un programa informático en él. Cuando el procesador ejecuta el programa informático, se puede realizar lo siguiente.
(1) Se selecciona una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente. La pluralidad de imágenes capturadas secuencialmente puede adquirirse fotografiando, o puede adquirirse tomando una porción de un video. Una fotografía archivada en cada una de la pluralidad de imágenes capturadas secuencialmente es sustancialmente idéntica entre sí. Es decir, se puede obtener una imagen fusionada superponiendo y fusionando la pluralidad de imágenes capturadas secuencialmente. Después de adquirir la pluralidad de imágenes capturadas secuencialmente, se puede seleccionar la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente. La imagen de referencia se refiere a una imagen estándar configurada para una fusión de múltiples imágenes. Es decir, sobre la base de la imagen de referencia, se seleccionan algunas imágenes de entre la pluralidad de imágenes capturadas secuencialmente para la fusión de múltiples imágenes. Una manera de adquirir la imagen de referencia puede describirse como sigue. Se calcula un valor de nitidez de cada una de la pluralidad de imágenes, y se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes como imagen de referencia. Generalmente, cuando la pluralidad de imágenes capturadas secuencialmente se adquiere fotografiando, el número de la pluralidad de imágenes se determina de acuerdo con un algoritmo preestablecido. Después de adquirirse la pluralidad de imágenes capturadas secuencialmente, se puede evaluar si se puede realizar un proceso de múltiples imágenes en la pluralidad de imágenes adquiridas. Se seleccionan las imágenes en las que se puede realizar el proceso de múltiples imágenes para adquirir la imagen de referencia.
(2) Se seleccionan una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia.
Después de adquirirse la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente, se adquieren el valor de luminancia y el valor de nitidez de la imagen de referencia. Cuando la imagen de referencia está en un formato de YUV, se adquiere un valor Y como el valor de luminancia de la imagen de referencia. Cuando la imagen de referencia no está en el formato de YUV, la imagen de referencia se convierte al formato de YUV y luego se adquiere el valor de luminancia. Por ejemplo, cuando la imagen de referencia está en el formato de RAW, la imagen de referencia se convierte del formato de RAW al formato de YUV, y el valor Y se adquiere como el valor de luminancia. Las funciones de evaluación convencionales de la nitidez de imagen incluyen, principalmente: una función de cambio de escala de grises, una función de gradiente y una función de entropía de escala de grises de imagen y similares. Las funciones de evaluación de la nitidez de imagen varían con las imágenes a ser evaluadas. De acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia, la una o más primeras imágenes pueden seleccionarse de entre la pluralidad de imágenes. La primera imagen se refiere a una imagen configurada, junto con la imagen de referencia, para la fusión de múltiples imágenes. Seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes de acuerdo con el valor de luminancia y el valor de nitidez de la referencia incluye lo siguiente. Tomando el valor de luminancia y el valor de nitidez de la imagen de referencia como estándares, se selecciona una imagen que tiene un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia y que tiene un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia. Por ejemplo, cuando el valor de luminancia de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 100 y el valor de nitidez de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 30, una imagen que tiene el valor de luminancia dentro del 85 % al 115 % del valor de luminancia de la imagen de referencia y que tiene el valor de nitidez dentro del 90 % al 110 % del valor de nitidez de la imagen de referencia (es decir, una imagen que tiene el valor de luminancia dentro de un rango de 85 a 115 y que tiene el valor de nitidez dentro de un rango de 27 a 30) se selecciona como una de la una o más primeras imágenes.
(3) La imagen de referencia y la una o más primeras imágenes se fusionan para obtener una segunda imagen.
Después de adquirirse la imagen de referencia y la una o más primeras imágenes, se realiza la fusión de múltiples imágenes en la imagen de referencia y en la una o más primeras imágenes, para obtener la segunda imagen. La segunda imagen se refiere a una imagen fusionada obtenida después de la fusión de múltiples imágenes. Adquirir la segunda imagen después de la fusión de múltiples imágenes incluye lo siguiente. Se adquiere una pluralidad de imágenes. Se determinan los píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes. Los píxeles de referencia en la imagen de referencia pueden estar en correspondencia con los píxeles de referencia de la una o más primeras imágenes. En base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, se adquiere un modo de alineación de la imagen de referencia y de la una o más primeras imágenes. La imagen de referencia se alinea con la una o más primeras imágenes en base al modo de alineación. La imagen de referencia alineada y la una o más primeras imágenes alineadas se fusionan para obtener la segunda imagen. El modo de alineación puede adquirirse de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes.
(4) Se realiza la reducción de ruido en la segunda imagen.
Después de obtenerse la segunda imagen después de la fusión de múltiples imágenes, necesita realizar la reducción de ruido en la segunda imagen. Los puntos ruidosos están desordenados y cada una de la pluralidad de imágenes tiene los puntos ruidosos. Los puntos ruidosos pueden apantallarse fácilmente mediante la fusión de múltiples imágenes para realizar la reducción de ruido en la imagen fusionada. Por ejemplo, para dos imágenes capturadas secuencialmente, una imagen anterior tiene un punto ruidoso rojo en una posición determinada y una última imagen tiene un punto ruidoso verde en la misma posición determinada. Cuando se fusionan las dos imágenes, puede existir un punto ruidoso blanco en una posición superpuesta de los puntos ruidosos rojo y verde. Se puede realizar un algoritmo de interpolación en el punto ruidoso blanco para realizar la reducción de ruido.
En la presente divulgación, después de seleccionarse la imagen de referencia de entre la pluralidad de imágenes, se seleccionan la una o más primeras imágenes de entre las imágenes restantes de acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia. Por lo tanto, se puede garantizar una consistencia de imagen después de la fusión de múltiples imágenes. Además, es eficaz eliminar el ruido de la imagen fusionada y mejorar la calidad de imagen.
En un ejemplo, realizar la reducción de ruido en (4) incluye lo siguiente. El número sumado de la imagen de referencia y de la una o más primeras imágenes se compara con una tabla de búsqueda para determinar un nivel de reducción de ruido. La tabla de búsqueda registra el nivel de reducción de ruido con respecto al número sumado de la imagen de referencia y de la una o más primeras imágenes. La reducción de ruido se realiza en la segunda imagen de acuerdo con el nivel de reducción de ruido.
Cuando la reducción de ruido se realiza en la segunda imagen, se selecciona un correspondiente nivel de reducción de ruido de acuerdo con el número sumado de la imagen de referencia y de la una o más primeras imágenes. Es decir, para una imagen fusionada diferente, obtenida después de la fusión de múltiples imágenes, se adopta un nivel de reducción de ruido diferente. El nivel de reducción de ruido se determina de acuerdo con el número de imágenes configuradas para la fusión de múltiples imágenes. Cuando el número de imágenes configuradas para la fusión de múltiples imágenes es mayor, la imagen fusionada tiene poco ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más bajo para conservar más detalles de la imagen fusionada. Cuando el número de imágenes configuradas para la fusión de múltiples imágenes es menor, la imagen fusionada tiene más ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más alto con una potente capacidad de reducción de ruido para hacer que la imagen fusionada sea más clara. Por ejemplo, tomando 6 imágenes como ejemplo, la reducción de ruido tiene 6 niveles. Del 1.er nivel al 6.° nivel, aumenta una potencia de reducción de ruido. Cuando se configuran 6 imágenes para la fusión de múltiples imágenes, se selecciona el 1.er nivel de reducción de ruido para la imagen fusionada. Cuando se configuran 5 imágenes para la fusión de múltiples imágenes, se selecciona el 2.° nivel de reducción de ruido para la imagen fusionada.
En los métodos de reducción de ruido convencionales, se adopta el mismo nivel de reducción de ruido para la imagen fusionada, que tiene un efecto pobre de reducción de ruido cuando el número de imágenes configuradas para la fusión de imágenes múltiples es menor y el ruido en las imágenes es mayor. Con la presente divulgación, se selecciona el correspondiente nivel de reducción de ruido de acuerdo con el número de imágenes configuradas para la fusión de múltiples imágenes. Por lo tanto, para el número diferente de las imágenes, se selecciona un nivel de reducción de ruido diferente para la imagen fusionada, y se logra una reducción de ruido adaptativa de acuerdo con el número de las imágenes. Además, se pueden conservar los detalles de imagen cuando el ruido en las imágenes es menor, mientras que se puede garantizar la nitidez de imagen cuando el ruido en las imágenes es mayor.
En un ejemplo, realizar la reducción de ruido en la segunda imagen en (4) incluye lo siguiente. La reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen.
Cuando se realiza la reducción de ruido en la segunda imagen, se pueden realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen. El ruido de luminancia es un ruido incoloro, que se muestra en una porción gruesa de la imagen como aproximadamente granular. El ruido de crominancia es un punto de color primario en la imagen, que es nítido en una porción más plana del nivel oscuro de la imagen, y no es nítido en una porción brillante o en una porción ocupada por un objeto blanco. Una potencia de la reducción de ruido de luminancia es menor. Una potencia de la reducción de ruido de crominancia es mayor sin destruir las disposiciones de color de la imagen. Después de la reducción de ruido de luminancia y la reducción de ruido de crominancia, la imagen puede ser más clara.
En la presente divulgación, la reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen. Por lo tanto, la imagen es más clara después de la reducción de ruido, para mejorar la calidad de imagen.
En un ejemplo, seleccionar la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente en (1) incluye lo siguiente. Se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia.
Cuando se selecciona la imagen de referencia, comparando los valores de nitidez de la imagen, se selecciona la imagen que tiene el valor de nitidez máximo como la imagen de referencia. Se pueden adoptar varios algoritmos para adquirir el valor de nitidez de imagen. En general, los algoritmos de evaluación de la nitidez de imagen incluyen cuatro algoritmos: una detección de gradiente de borde, una detección basada en correlación, una detección basada en estadísticas y una detección basada en cambios. Un algoritmo de evaluación diferente es adecuado para un procesamiento de imágenes diferente. El algoritmo de evaluación se selecciona de acuerdo con la imagen adquirida. Después de adquirirse el valor de nitidez de cada una de la pluralidad de imágenes con el algoritmo de evaluación, comparando los valores de nitidez de la pluralidad de imágenes, la imagen que tiene el valor de nitidez máximo se selecciona como la imagen de referencia.
En la presente divulgación, seleccionando la imagen que tiene el valor de nitidez máximo como la imagen de referencia, la nitidez de la imagen fusionada puede ser mayor y la calidad de imagen puede ser mejor.
La presente divulgación proporciona además un dispositivo electrónico. Como se ilustra en la Fig. 3, para simplificar la ilustración, apenas se ilustran las porciones relacionadas con la presente divulgación. Para aquellos detalles no divulgados, se puede hacer referencia al método de la presente divulgación. El dispositivo electrónico puede ser un teléfono, una tableta, un asistente digital personal (PDA), un punto de venta (POS), una computadora de a bordo, un dispositivo llevable, equipo aéreo o cualquier otro dispositivo electrónico con función de procesamiento de imágenes. La Fig. 3 es un diagrama de bloques que ilustra estructuras parciales de un dispositivo electrónico proporcionado en la presente divulgación. Con referencia a la Fig. 3, el dispositivo electrónico incluye un circuito 310 de radiofrecuencia (RF), una memoria 320, una unidad 330 de entrada, una unidad 340 de visualización, un sensor 350, un circuito 360 de audio, un módulo 370 de fidelidad inalámbrica (Wi-Fi), un procesador 380 y una fuente 390 de alimentación. Los expertos en la materia pueden entender que las estructuras ilustradas en la Fig. 3 no limitan las estructuras del dispositivo electrónico. El dispositivo electrónico puede incluir menos o más componentes que aquellos ilustrados en la Fig. 3 o combinaciones de los mismos, o tener una disposición diferente de componentes.
El circuito 310 de RF puede estar configurado para recibir o transmitir una señal durante un proceso de transmisión o de recepción de un mensaje o haciendo una llamada. El circuito 310 de RF puede configurarse para recibir datos de enlace descendente desde una estación base y para transmitir datos de enlace descendente al procesador 380. Alternativamente, el circuito 310 de RF puede configurarse para transmitir datos de enlace ascendente a la estación base. En general, el circuito de RF incluye, entre otros, una antena, al menos un amplificador, un transceptor, un acoplador, un amplificador de bajo ruido (LNA), un diplexor y similares. Además, el circuito 310 de RF puede configurarse adicionalmente para comunicarse con otros dispositivos a través de la comunicación inalámbrica y la red. La comunicación inalámbrica anterior puede adoptar cualquier estándar o protocolo de comunicación, que incluye pero no se limita al sistema global para comunicaciones móviles (GSM), servicio general de paquetes vía radio (GPRS), acceso múltiple por división de código (CDMA), acceso múltiple por división de código de banda ancha (WCDMA), evolución a largo plazo (LTE), correo electrónico, servicio de mensajes cortos (SMS) y similares.
La memoria 320 puede estar configurada para almacenar programas o módulos de software. El procesador 380 está configurado para ejecutar diversas aplicaciones funcionales y procesos de datos ejecutando los programas y módulos de software almacenados en la memoria 320. La memoria 320 puede incluir principalmente una región de almacenamiento de programas y una región de almacenamiento de datos. La región de almacenamiento de programas puede almacenar un sistema operativo, aplicaciones que requieren al menos una función (tal como una aplicación que tiene una función de reproducción de sonido, una aplicación que tiene una función de reproducción de imágenes) y similares. La región de almacenamiento de datos puede almacenar datos producidos utilizando el dispositivo electrónico (tales como datos de audio, una libreta de direcciones) y similares. Además, la memoria 320 puede incluir una memoria de acceso aleatorio de alta velocidad y puede incluir una memoria no volátil, tal como al menos una memoria de disco, una memoria flash u otra memoria de estado sólido volátil.
La unidad 330 de entrada puede estar configurada para recibir información de figura o de carácter introducida, y generar una entrada de señal clave relacionada con una configuración de usuario o un control de función del dispositivo 300 electrónico. En detalle, la unidad 300 de entrada puede incluir un panel 331 táctil y otros dispositivos 332 de entrada. El panel 331 táctil (también denominado pantalla táctil) puede configurarse para recolectar operaciones táctiles cerca o en el panel 331 táctil (tal como una operación en el panel 331 táctil o cerca del panel 331 táctil del usuario con un dedo, un puntero u otros objetos o accesorios adecuados), y controlar el correspondiente dispositivo conectado de acuerdo con un programa preestablecido. En un ejemplo, el panel 331 táctil puede incluir un dispositivo de detección táctil y un controlador táctil. El dispositivo de detección táctil detecta una orientación del toque del usuario, detecta una señal causada por la operación táctil y envía la señal al controlador táctil. El controlador táctil recibe la información táctil en el dispositivo de detección táctil, convierte la información táctil en coordenadas de punto táctil y envía las coordenadas del punto táctil al procesador 380. Además, el controlador táctil puede recibir y ejecutar un comando enviado desde el procesador 380. El panel 331 táctil puede implementarse como tipificado por resistencia, tipificado capacitivo, tipificado infrarrojo y tipificado de onda acústica de superficie. Además del panel 331 táctil, la unidad 330 de entrada puede incluir, además, otros dispositivos 332 de entrada. En detalle, los otros dispositivos 332 de entrada pueden incluir, pero no están limitados a, uno o más de un teclado físico, una tecla funcional (tal como una tecla de control de volumen, una tecla de cambio y similares).
La unidad 340 de visualización puede estar configurada para visualizar información introducida por el usuario o información suministrada al usuario o diversos menús del dispositivo electrónico. La unidad 340 de visualización puede incluir un panel 341 de visualización. En un ejemplo, el panel 341 de visualización puede configurarse como una pantalla de cristal líquido (LCD), un diodo orgánico emisor de luz (OLED) y similares. En un ejemplo, el panel 331 táctil puede cubrir el panel 341 de visualización. Cuando el panel 331 táctil detecta la operación táctil en el panel 331 táctil o cerca del panel 331 táctil, la operación táctil se transmite al procesador 380 para determinar un tipo del evento táctil. Después, el procesador 380 proporciona una correspondiente salida visual en el panel 341 de visualización de acuerdo con el tipo de evento táctil. Aunque el panel 331 táctil y el panel 341 de visualización son dos componentes separados para realizar una función de entrada y de salida del dispositivo electrónico ilustrado en la Fig. 3, en ciertos ejemplos, el panel 331 táctil y el panel 341 de visualización pueden integrarse para realizar la función de entrada y de salida del dispositivo electrónico.
El dispositivo 300 electrónico puede incluir, además, al menos un sensor 350, tal como un sensor óptico, un sensor de movimiento y otros sensores. En detalle, el sensor óptico puede incluir un sensor de luz ambiental y un sensor de proximidad. El sensor de luz ambiental puede ajustar la luminosidad del panel 341 de visualización de acuerdo con las luces ambientales. El sensor de proximidad puede cerrar el panel 341 de visualización y/o la luz de fondo cuando el dispositivo electrónico se mueve cerca de los oídos del usuario. El sensor de movimiento puede incluir un sensor de aceleración, para medir el valor de aceleración en diversas direcciones a través del sensor de aceleración, medir un valor y una dirección de gravedad cuando el dispositivo electrónico está estático, e identificar un estado del dispositivo electrónico (tal como cambiar de pantalla horizontal a pantalla vertical), funciones relacionadas con sacudidas (tal como un podómetro, un golpeteo) y similares. Además, el dispositivo electrónico puede configurarse con un giroscopio, un barómetro, un termómetro, un sensor infrarrojo y otros sensores.
El circuito 360 de audio, un altavoz 361 y un micrófono 362 pueden proporcionar una interfaz de audio entre el usuario y el dispositivo electrónico. El circuito 360 de audio puede transmitir una señal eléctrica convertida de los datos de audio recibidos al altavoz 361. El altavoz 361 convierte la señal eléctrica en una señal de sonido y emite la señal de sonido. En otro aspecto, el micrófono 362 puede convertir los sonidos individuales recolectados en señales eléctricas. El circuito 360 de audio recibe y convierte las señales eléctricas en datos de audio y envía los datos de audio al procesador 380 para ser procesados. Los datos de audio procesados por el procesador 380 pueden transmitirse a otro dispositivo electrónico a través del circuito 310 de RF o pueden almacenarse en la memoria 320 para procesarse posteriormente.
Wi-Fi es una tecnología de comunicación inalámbrica de corta distancia. El dispositivo electrónico puede ayudar al usuario a recibir o enviar un correo electrónico, buscar páginas web, acceder a medio de transmisión a través del módulo 370 Wi-Fi. El módulo 370 Wi-Fi proporciona un acceso inalámbrico a Internet de banda ancha. Aunque el módulo 370 Wi-Fi se ilustra en la Fig. 3, puede entenderse que el módulo 370 Wi-Fi no es necesario para el dispositivo 300 electrónico, por lo que puede omitirse de acuerdo con las demandas.
El procesador 380 es un centro de control del dispositivo electrónico, que utiliza diversas interfaces y cables para conectar diversas partes del dispositivo electrónico. Al correr o ejecutar el programa de software y/o los módulos almacenados en la memoria 320, y al invocar los datos almacenados en la memoria 320, se pueden ejecutar las diversas funciones y funciones de procesamiento de datos, monitorizando así integralmente el dispositivo electrónico. En un ejemplo, el procesador 380 puede incluir una o más unidades de procesamiento. En un ejemplo, el procesador 380 puede integrarse con un procesador de aplicaciones o un procesador de módem. El procesador de aplicaciones procesa principalmente el sistema operativo, una interfaz de usuario y una aplicación. El procesador del módem procesa principalmente la comunicación inalámbrica. Puede entenderse que el controlador de módem anterior puede no estar integrado en el procesador 380.
El dispositivo 300 electrónico puede incluir, además, una fuente 390 de alimentación (tal como una batería) para proporcionar potencia a las diversas partes del dispositivo electrónico. Alternativamente, la fuente de alimentación puede conectarse lógicamente a un sistema de gestión de energía y al procesador 380, gestionando así una carga, descarga y consumo de energía a través del sistema de gestión de energía.
En un ejemplo, el dispositivo 300 electrónico puede incluir, además, una cámara, un módulo Bluetooth y similares. En la presente divulgación, el procesador 380 incluido en el dispositivo electrónico puede ejecutar los programas de ordenador almacenados en la memoria para lograr lo siguiente.
(1) Se selecciona una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente. La pluralidad de imágenes capturadas secuencialmente puede adquirirse fotografiando, o puede adquirirse tomando una porción de un video. Una fotografía archivada en cada una de la pluralidad de imágenes capturadas secuencialmente es sustancialmente idéntica entre sí. Es decir, se puede obtener una imagen fusionada superponiendo y fusionando la pluralidad de imágenes capturadas secuencialmente. Después de adquirirse la pluralidad de imágenes capturadas secuencialmente, la imagen de referencia puede seleccionarse de entre la pluralidad de imágenes capturadas secuencialmente. La imagen de referencia se refiere a una imagen estándar configurada para una fusión de múltiples imágenes. Es decir, sobre la base de la imagen de referencia, se seleccionan algunas imágenes de entre la pluralidad de imágenes capturadas secuencialmente para la fusión de múltiples imágenes. Una manera de adquirir la imagen de referencia puede describirse como sigue. Se calcula un valor de nitidez de cada una de la pluralidad de imágenes y se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes como imagen de referencia. Generalmente, cuando la pluralidad de imágenes capturadas secuencialmente se adquiere fotografiando, el número de la pluralidad de imágenes se determina de acuerdo con un algoritmo preestablecido. Después de adquirirse la pluralidad de imágenes capturadas secuencialmente, se puede evaluar si se puede realizar un proceso de múltiples imágenes en la pluralidad de imágenes adquiridas. Las imágenes en las que se puede realizar el proceso de múltiples imágenes se seleccionan para adquirir la imagen de referencia.
(2) Se seleccionan una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia.
Después de adquirirse la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente, se adquieren el valor de luminancia y el valor de nitidez de la imagen de referencia. Cuando la imagen de referencia está en un formato de YUV, se adquiere un valor Y como el valor de luminancia de la imagen de referencia. Cuando la imagen de referencia no está en el formato de YUV, la imagen de referencia se convierte al formato de YUV y luego se adquiere el valor de luminancia. Por ejemplo, cuando la imagen de referencia está en formato de RAW, la imagen de referencia se convierte del formato de RAW al formato de YUV, y el valor Y se adquiere como el valor de luminancia. Las funciones de evaluación convencionales de la nitidez de imagen incluyen, principalmente: una función de cambio de escala de grises, una función de gradiente y una función de entropía de escala de grises de imagen y similares. Las funciones de evaluación de la nitidez de imagen varían con las imágenes a ser evaluadas. De acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia, la una o más primeras imágenes pueden seleccionarse de entre la pluralidad de imágenes. La primera imagen se refiere a una imagen configurada, junto con la imagen de referencia, para la fusión de múltiples imágenes. Seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes de acuerdo con el valor de luminancia y el valor de nitidez de la referencia incluye lo siguiente. Tomando el valor de luminancia y el valor de nitidez de la imagen de referencia como estándares, una imagen que tiene un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y que tiene un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia seleccionada. Por ejemplo, cuando el valor de luminancia de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 100 y el valor de nitidez de la imagen de referencia seleccionada de entre la pluralidad de imágenes es 30, una imagen que tiene el valor de luminancia dentro del 85 % al 115 % del valor de luminancia de la imagen de referencia y que tiene el valor de nitidez dentro del 90 % al 110 % del valor de nitidez de la imagen de referencia (es decir, una imagen que tiene el valor de luminancia dentro de un rango de 85 a 115 y que tiene el valor de nitidez dentro de un rango de 27 a 30) se selecciona como una de las una o más primeras imágenes.
(3) La imagen de referencia y la una o más primeras imágenes se fusionan para obtener una segunda imagen.
Después de adquirirse la imagen de referencia y la una o más primeras imágenes, la fusión de múltiples imágenes se realiza en la imagen de referencia y en la una o más primeras imágenes, para obtener la segunda imagen. La segunda imagen se refiere a una imagen fusionada, obtenida después de la fusión de múltiples imágenes. Adquirir la segunda imagen después de la fusión de múltiples imágenes incluye lo siguiente. Se adquieren una pluralidad de imágenes. Se determinan los píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes. Los píxeles de referencia en la imagen de referencia pueden estar en correspondencia con los píxeles de referencia de la una o más primeras imágenes. En base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, se adquiere un modo de alineación de la imagen de referencia y de la una o más primeras imágenes. La imagen de referencia se alinea con la una o más primeras imágenes en base al modo de alineación. La imagen de referencia alineada y la una o más primeras imágenes alineadas se fusionan para obtener la segunda imagen. El modo de alineación puede adquirirse de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes.
(4) Se realiza la reducción de ruido en la segunda imagen.
Después de obtenerse la segunda imagen después de la fusión de múltiples imágenes, necesita realizar la reducción de ruido en la segunda imagen. Los puntos ruidosos están desordenados y cada una de la pluralidad de imágenes tiene los puntos ruidosos. Los puntos ruidosos pueden apantallarse fácilmente mediante la fusión de múltiples imágenes para realizar la reducción de ruido en la imagen fusionada. Por ejemplo, para dos imágenes capturadas secuencialmente, una imagen anterior tiene un punto ruidoso rojo en una posición determinada y una última imagen tiene un punto ruidoso verde en la misma posición determinada. Cuando se fusionan las dos imágenes, puede existir un punto ruidoso blanco en una posición superpuesta de los puntos ruidosos rojo y verde. Se puede realizar un algoritmo de interpolación en el punto ruidoso blanco para realizar la reducción de ruido.
En la presente divulgación, después de seleccionarse la imagen de referencia de entre la pluralidad de imágenes, la una o más primeras imágenes se seleccionan de entre las imágenes restantes de acuerdo con el valor de luminancia y el valor de nitidez de la imagen de referencia. Por lo tanto, se puede garantizar una consistencia de imagen después de la fusión de múltiples imágenes. Además, es eficaz para eliminar el ruido de la imagen fusionada y mejorar la calidad de imagen.
En un ejemplo, realizar la reducción de ruido en (4) incluye lo siguiente. El número sumado de la imagen de referencia y de la una o más primeras imágenes se compara con una tabla de búsqueda para determinar un nivel de reducción de ruido. La tabla de búsqueda registra el nivel de reducción de ruido con respecto al número sumado de la imagen de referencia y de la una o más primeras imágenes. La reducción de ruido se realiza en la segunda imagen de acuerdo con el nivel de reducción de ruido.
Cuando la reducción de ruido se realiza en la segunda imagen, se selecciona un correspondiente nivel de reducción de ruido de acuerdo con el número sumado de la imagen de referencia y de la una o más primeras imágenes. Es decir, para una imagen fusionada diferente, obtenida después de la fusión de múltiples imágenes, se adopta un nivel de reducción de ruido diferente. El nivel de reducción de ruido se determina de acuerdo con el número de imágenes configuradas para la fusión de múltiples imágenes. Cuando el número de imágenes configuradas para la fusión de múltiples imágenes es mayor, la imagen fusionada tiene poco ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más bajo para conservar más detalles de la imagen fusionada. Cuando el número de imágenes configuradas para la fusión de múltiples imágenes es menor, la imagen fusionada tiene más ruido. Por lo tanto, se puede seleccionar un nivel de reducción de ruido más alto con una potente capacidad de reducción de ruido para hacer la imagen fusionada más clara. Por ejemplo, tomando 6 imágenes como ejemplo, la reducción de ruido tiene 6 niveles. Del 1.er nivel al 6.° nivel, aumenta una potencia de reducción de ruido. Cuando se configuran 6 imágenes para la fusión de múltiples imágenes, se selecciona el 1.er nivel de reducción de ruido para la imagen fusionada. Cuando se configuran 5 imágenes para la fusión de múltiples imágenes, se selecciona el 2.° nivel de reducción de ruido para la imagen fusionada.
En los métodos de reducción de ruido convencionales, se adopta el mismo nivel de reducción de ruido para la imagen fusionada, lo que tiene un efecto pobre de reducción de ruido cuando el número de imágenes configuradas para la fusión de imágenes múltiples es menor y el ruido en las imágenes es mayor. Con la presente divulgación, se selecciona el correspondiente nivel de reducción de ruido de acuerdo con el número de imágenes configuradas para la fusión de múltiples imágenes. Por lo tanto, para el número diferente de las imágenes, se selecciona un nivel de reducción de ruido diferente para la imagen fusionada, y se logra una reducción de ruido adaptativa de acuerdo con el número de las imágenes. Además, los detalles de la imagen pueden conservarse cuando el ruido en las imágenes es menor, mientras que la nitidez de imagen puede garantizarse cuando el ruido en las imágenes es mayor.
En un ejemplo, realizar la reducción de ruido en la segunda imagen en (4) incluye lo siguiente. La reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen.
Cuando la reducción de ruido se realiza en la segunda imagen, la reducción de ruido de luminancia y la reducción de ruido de crominancia pueden realizarse en la segunda imagen. El ruido de luminancia es un ruido incoloro, que se muestra en una porción gruesa de la imagen como aproximadamente granular. El ruido de crominancia es un punto de color primario en la imagen, que es nítido en una porción más plana del nivel oscuro de la imagen, y no es nítido en una porción brillante o en una porción ocupada por un objeto blanco. Una potencia de la reducción de ruido de luminancia es menor. Una potencia de la reducción de ruido de crominancia es mayor sin destruir las disposiciones de color de la imagen. Después de la reducción de ruido de luminancia y la reducción de ruido de crominancia, la imagen puede ser más clara.
En la presente divulgación, la reducción de ruido de luminancia y la reducción de ruido de crominancia se realizan en la segunda imagen. Por lo tanto, la imagen es más clara después de la reducción de ruido, para mejorar la calidad de imagen.
En un ejemplo, seleccionar la imagen de referencia de entre la pluralidad de imágenes capturadas secuencialmente en (1) incluye lo siguiente. Se selecciona una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia.
Cuando se selecciona la imagen de referencia, comparando los valores de nitidez de la imagen, se selecciona la imagen que tiene el valor de nitidez máximo como la imagen de referencia. Se pueden adoptar diversos algoritmos para adquirir el valor de nitidez de imagen. En general, los algoritmos de evaluación de la nitidez de imagen incluyen cuatro algoritmos: una detección de gradiente de borde, una detección basada en correlación, una detección basada en estadísticas y una detección basada en cambios. Un algoritmo de evaluación diferente es adecuado para un procesamiento de imágenes diferente. El algoritmo de evaluación se selecciona de acuerdo con la imagen adquirida. Después de adquirirse el valor de nitidez de cada una de la pluralidad de imágenes con el algoritmo de evaluación, comparando los valores de nitidez de la pluralidad de imágenes, la imagen que tiene el valor de nitidez máximo se selecciona como la imagen de referencia.
En la presente divulgación, seleccionando la imagen que tiene el valor de nitidez máximo como la imagen de referencia, la nitidez de la imagen fusionada puede ser mayor y la calidad de imagen puede ser mejor.
Los expertos en la materia entenderán que la totalidad o parte de los actos llevados a cabo por el método en las descripciones anteriores pueden completarse mediante hardware relevante instruido por un programa. El programa puede almacenarse en un medio de almacenamiento legible por computadora. Cuando se ejecuta el programa, se puede completar uno o una combinación de los actos del método en las descripciones anteriores. El medio de almacenamiento puede ser un disco magnético, un disco ligero, una memoria de solo lectura (ROM) y similares.

Claims (9)

REIVINDICACIONES
1. Un método de procesamiento de imágenes implementado por computadora, que comprende:
seleccionar (102) una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente que comprende seleccionar una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como imagen de referencia;
seleccionar (104) una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia, que comprende seleccionar la una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes, la una o más primeras imágenes que tienen un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y la una o más primeras imágenes que tienen un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia;
fusionar (106) la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen; y realizar (108) reducción de ruido en la segunda imagen.
2. El método de acuerdo con la reivindicación 1, en donde realizar (108) reducción de ruido en la segunda imagen comprende:
comparar un valor sumado del número de la imagen de referencia y el número de la una o más primeras imágenes con una tabla de búsqueda para determinar un nivel de reducción de ruido, en donde la tabla de búsqueda registra el nivel de reducción de ruido con respecto al valor sumado; y
realizar la reducción de ruido en la segunda imagen de acuerdo con el nivel de reducción de ruido.
3. El método de acuerdo con la reivindicación 1 o 2, en donde realizar (108) reducción de ruido en la segunda imagen comprende:
realizar la reducción de ruido de luminancia y reducción de ruido de crominancia en la segunda imagen.
4. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en donde fusionar (106) la imagen de referencia y la una o más primeras imágenes para obtener la segunda imagen, comprende:
determinar los píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes, estando los píxeles de referencia en la imagen de referencia en correspondencia con los píxeles de referencia de la una o más primeras imágenes;
adquirir un modo de alineación de la imagen de referencia y de la una o más primeras imágenes en base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, en donde el modo de alineación se adquiere de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes;
alinear la imagen de referencia con la una o más primeras imágenes en base al modo de alineación; y
fusionar la imagen de referencia alineada y la una o más primeras imágenes alineadas para obtener la segunda imagen.
5. Un dispositivo de procesamiento de imágenes, que comprende:
un módulo (202) de selección configurado para seleccionar una imagen de referencia de entre una pluralidad de imágenes capturadas secuencialmente, seleccionando una imagen que tiene un valor de nitidez máximo de entre la pluralidad de imágenes capturadas secuencialmente como la imagen de referencia, y para seleccionar una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes en base a un valor de luminancia y a un valor de nitidez de la imagen de referencia, seleccionando la una o más primeras imágenes de entre las imágenes capturadas secuencialmente restantes, la una o más primeras imágenes que tienen un valor de luminancia predefinido en un primer rango preestablecido del valor de luminancia de la imagen de referencia, y la una o más primeras imágenes que tienen un valor de nitidez predefinido en un segundo rango preestablecido del valor de nitidez de la imagen de referencia;
un módulo (204) de fusión configurado para fusionar la imagen de referencia y la una o más primeras imágenes para obtener una segunda imagen; y
un módulo (206) de reducción de ruido configurado para realizar la reducción de ruido en la segunda imagen.
6. El dispositivo de acuerdo con la reivindicación 5, en donde el módulo (206) de reducción de ruido está configurado, además, para:
comparar un valor sumado del número de la imagen de referencia y del número de una o más primeras imágenes con una tabla de búsqueda para determinar un nivel de reducción de ruido, en donde la tabla de búsqueda registra el nivel de reducción de ruido con respecto al valor sumado; y
realizar la reducción de ruido en la segunda imagen de acuerdo con el nivel de reducción de ruido.
7. El dispositivo de acuerdo con la reivindicación 5 o 6, en donde el módulo (206) de reducción de ruido está configurado, además, para:
realizar la reducción de ruido de luminancia y la reducción de ruido de crominancia en la segunda imagen.
8. El dispositivo de acuerdo con una cualquiera de las reivindicaciones 5 a 7, en donde el módulo (204) de fusión está configurado, además, para:
determinar los píxeles de referencia que existen en la imagen de referencia y en la una o más primeras imágenes, estando los píxeles de referencia en la imagen de referencia en correspondencia con los píxeles de referencia de la una o más primeras imágenes;
adquirir un modo de alineación de la imagen de referencia y de la una o más primeras imágenes en base a los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes, en donde el modo de alineación se adquiere de acuerdo con parámetros de escala y de rotación, y parámetros de desplazamiento de los píxeles de referencia existentes en la imagen de referencia y en la una o más primeras imágenes;
alinear la imagen de referencia con la una o más primeras imágenes en base al modo de alineación; y fusionar la imagen de referencia alineada y la una o más primeras imágenes alineadas para obtener la segunda imagen.
9. Un medio de almacenamiento legible por computadora, que almacena un programa informático en él, en donde cuando el programa informático se ejecuta por un procesador, se realiza el método de procesamiento de imágenes de acuerdo con una cualquiera de las reivindicaciones 1 a 4.
ES18160298T 2017-05-31 2018-03-06 Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico Active ES2784905T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710399858.3A CN107230192B (zh) 2017-05-31 2017-05-31 图像处理方法、装置、计算机可读存储介质和移动终端

Publications (1)

Publication Number Publication Date
ES2784905T3 true ES2784905T3 (es) 2020-10-01

Family

ID=59933504

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18160298T Active ES2784905T3 (es) 2017-05-31 2018-03-06 Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico

Country Status (6)

Country Link
US (1) US10497097B2 (es)
EP (1) EP3410390B1 (es)
CN (1) CN107230192B (es)
ES (1) ES2784905T3 (es)
TW (1) TWI696146B (es)
WO (1) WO2018219013A1 (es)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107230192B (zh) 2017-05-31 2020-07-21 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
CN108053369A (zh) * 2017-11-27 2018-05-18 努比亚技术有限公司 一种图像处理的方法、设备及存储介质
CN108154514B (zh) * 2017-12-06 2021-08-13 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN108063920A (zh) * 2017-12-26 2018-05-22 深圳开立生物医疗科技股份有限公司 一种图像冻结方法、装置、设备及计算机可读存储介质
CN108154534B (zh) * 2017-12-26 2020-09-01 努比亚技术有限公司 一种图片清晰度校准方法、终端和计算机可读存储介质
CN108198177A (zh) * 2017-12-29 2018-06-22 广东欧珀移动通信有限公司 图像获取方法、装置、终端及存储介质
CN110838088B (zh) * 2018-08-15 2023-06-02 Tcl科技集团股份有限公司 一种基于深度学习的多帧降噪方法、装置及终端设备
CN109089046B (zh) * 2018-09-25 2021-06-04 Oppo广东移动通信有限公司 图像降噪方法、装置、计算机可读存储介质及电子设备
CN109005368B (zh) * 2018-10-15 2020-07-31 Oppo广东移动通信有限公司 一种高动态范围图像的生成方法、移动终端及存储介质
CN109756681A (zh) * 2019-01-30 2019-05-14 Oppo广东移动通信有限公司 图像合成方法、装置、电子设备及可读存储介质
CN110062173A (zh) * 2019-03-15 2019-07-26 北京旷视科技有限公司 图像处理器与图像处理方法、设备、存储介质及智能终端
CN110072061B (zh) * 2019-05-31 2021-02-09 努比亚技术有限公司 一种交互式拍摄方法、移动终端及存储介质
CN110290300A (zh) * 2019-06-28 2019-09-27 Oppo广东移动通信有限公司 设备成像方法、装置、存储介质及电子设备
CN110689502B (zh) * 2019-10-09 2022-06-14 深圳看到科技有限公司 一种图像处理方法及相关装置
CN110798627B (zh) * 2019-10-12 2021-05-18 深圳酷派技术有限公司 一种拍摄方法、装置、存储介质及终端
TWI722674B (zh) * 2019-11-21 2021-03-21 國立雲林科技大學 姿態影像訊號與運動訊號之訊號匹配系統以及訊號匹配方法
CN110868544B (zh) * 2019-11-25 2021-04-30 维沃移动通信(杭州)有限公司 一种拍摄方法及电子设备
CN112991188B (zh) * 2019-12-02 2023-06-27 RealMe重庆移动通信有限公司 图像处理方法及装置、存储介质、电子设备
CN111091513B (zh) * 2019-12-18 2023-07-25 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质及电子设备
CN111161176B (zh) * 2019-12-24 2022-11-08 RealMe重庆移动通信有限公司 图像处理方法及装置、存储介质和电子设备
CN111401411B (zh) * 2020-02-28 2023-09-29 北京小米松果电子有限公司 获取样本图像集的方法及装置
CN111275653B (zh) * 2020-02-28 2023-09-26 北京小米松果电子有限公司 图像去噪方法及装置
CN111741187B (zh) * 2020-06-08 2022-08-26 北京小米松果电子有限公司 图像处理方法、装置及存储介质
JP2022011927A (ja) * 2020-06-30 2022-01-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US11756285B2 (en) 2021-06-10 2023-09-12 Bank Of America Corporation Image processing system and method for image noise removal
CN113674241A (zh) * 2021-08-17 2021-11-19 Oppo广东移动通信有限公司 选帧方法、装置、计算机设备和存储介质
CN116385439B (zh) * 2023-06-05 2023-08-15 山东兰通机电有限公司 基于图像处理的电机橡胶减震垫质量检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
WO2005046221A1 (ja) * 2003-11-11 2005-05-19 Seiko Epson Corporation 画像処理装置、画像処理方法、そのプログラムおよび記録媒体
US8472712B2 (en) * 2009-10-20 2013-06-25 Apple Inc. System and method for applying lens shading correction during image processing
CN103259972A (zh) * 2012-02-17 2013-08-21 佳能企业股份有限公司 影像处理方法及成像装置
JP5917258B2 (ja) 2012-04-20 2016-05-11 キヤノン株式会社 画像処理装置及び画像処理方法
CN104036471B (zh) 2013-03-05 2017-07-25 腾讯科技(深圳)有限公司 一种图像噪声估值方法及图像噪声估值装置
US9875528B2 (en) * 2013-05-29 2018-01-23 Adobe Systems Incorporated Multi-frame patch correspondence identification in video
JP6230333B2 (ja) 2013-08-22 2017-11-15 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
CN105335950B (zh) 2014-05-28 2019-02-12 华为技术有限公司 图像处理方法和图像处理装置
US9641759B2 (en) 2014-07-10 2017-05-02 Lg Electronics Inc. Mobile terminal and controlling method thereof
US9659349B2 (en) 2015-06-12 2017-05-23 Gopro, Inc. Color filter array scaler
CN105187728B (zh) 2015-10-08 2019-03-22 Oppo广东移动通信有限公司 拍照方法和装置
CN105513021B (zh) * 2015-11-27 2019-07-12 努比亚技术有限公司 图像去噪装置和方法
CN105611181A (zh) * 2016-03-30 2016-05-25 努比亚技术有限公司 多帧拍摄图像合成装置和方法
CN106127698A (zh) 2016-06-15 2016-11-16 深圳市万普拉斯科技有限公司 图像降噪处理方法和装置
CN106331491A (zh) * 2016-08-29 2017-01-11 广东欧珀移动通信有限公司 一种拍照方法及装置
CN107230192B (zh) 2017-05-31 2020-07-21 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端

Also Published As

Publication number Publication date
US20180350042A1 (en) 2018-12-06
TW201903713A (zh) 2019-01-16
TWI696146B (zh) 2020-06-11
US10497097B2 (en) 2019-12-03
WO2018219013A1 (en) 2018-12-06
CN107230192A (zh) 2017-10-03
CN107230192B (zh) 2020-07-21
EP3410390B1 (en) 2020-02-26
EP3410390A1 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
ES2784905T3 (es) Método y dispositivo de procesamiento de imágenes, medio de almacenamiento legible por computadora y dispositivo electrónico
JP6967160B2 (ja) 画像処理方法および関連デバイス
KR102156597B1 (ko) 광학 촬영 방법 및 장치
US9819870B2 (en) Photographing method and electronic device
US9451173B2 (en) Electronic device and control method of the same
CN106937039B (zh) 一种基于双摄像头的成像方法、移动终端及存储介质
KR20160016068A (ko) 이미지 생성 방법 및 그 전자 장치
US20150332636A1 (en) Image display device and method
US20150103192A1 (en) Refocusable images
CN111064895B (zh) 一种虚化拍摄方法和电子设备
EP3687157A1 (en) Method for capturing images and electronic device
CN108419008B (zh) 一种拍摄方法、终端及计算机可读存储介质
CN110225237B (zh) 图像采集方法、装置以及移动终端
WO2017206656A1 (zh) 一种图像处理方法及终端、计算机存储介质
US20230364510A1 (en) Image prediction method, electronic device, and storage medium
US20240119566A1 (en) Image processing method and apparatus, and electronic device
CN112188082A (zh) 高动态范围图像拍摄方法、拍摄装置、终端及存储介质
CN108182668B (zh) 一种放大图像处理方法、终端及计算机可读存储介质
US10750080B2 (en) Information processing device, information processing method, and program
WO2014098143A1 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム
CN107743199B (zh) 图像处理方法、移动终端及计算机可读存储介质
CN108391050B (zh) 一种图像处理方法及移动终端
CN114143471B (zh) 图像处理方法、系统、移动终端及计算机可读存储介质
CN115735226B (zh) 一种图像处理方法及芯片
JP6387455B2 (ja) カメラ装置、画像処理装置及び画像処理方法