ES2925457T3 - Dispositivo electrónico y procedimiento para el procesamiento de imágenes - Google Patents

Dispositivo electrónico y procedimiento para el procesamiento de imágenes Download PDF

Info

Publication number
ES2925457T3
ES2925457T3 ES20195039T ES20195039T ES2925457T3 ES 2925457 T3 ES2925457 T3 ES 2925457T3 ES 20195039 T ES20195039 T ES 20195039T ES 20195039 T ES20195039 T ES 20195039T ES 2925457 T3 ES2925457 T3 ES 2925457T3
Authority
ES
Spain
Prior art keywords
image
images
filter
touch input
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20195039T
Other languages
English (en)
Inventor
Woo-Yong Lee
Jae-Yun Song
Kang-Hwan O
Hyun-Jung Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Application granted granted Critical
Publication of ES2925457T3 publication Critical patent/ES2925457T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

Se proporciona un método para mostrar imágenes, que incluye mostrar, mediante un dispositivo electrónico, una primera imagen obtenida de un sensor de imágenes; mostrar, mediante el dispositivo electrónico, una pluralidad de segundas imágenes junto con la primera imagen, en el que cada segunda imagen se genera en base a la primera imagen y un filtro de imagen respectivo; y en respuesta a una selección de al menos una segunda imagen, generar una tercera imagen basada en la primera imagen y el filtro de imagen respectivo de la segunda imagen seleccionada y mostrar la tercera imagen en lugar de la primera imagen. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Dispositivo electrónico y procedimiento para el procesamiento de imágenes
La presente divulgación se refiere a los dispositivos electrónicos, y más particularmente a un dispositivo electrónico que tiene una función de procesamiento de imágenes. La presente divulgación se refiere además a un procedimiento en un dispositivo electrónico y un medio no transitorio legible por ordenador.
Los dispositivos electrónicos como teléfonos móviles, planificadores electrónicos, terminales complejos privados, ordenadores portátiles y similares se han convertido en una necesidad para la vida moderna. Estos dispositivos a menudo incluyen una función de cámara que permite a los usuarios capturar imágenes y mejorar las imágenes capturadas mediante la aplicación de varios efectos fotográficos.
El documento US2007/081740 A1 desvela que los datos de imagen se reciben desde una cámara conectada a un ordenador. Una interfaz gráfica del usuario permite la interacción por medio de gestos y se muestran imágenes en tiempo real. El documento US 2009/319897 A1 desvela que se crean múltiples miniaturas de una imagen por medio de la aplicación de un filtro seleccionado en una imagen, en el que cada miniatura ilustra una representación de la imagen con un valor de parámetro diferente dentro del intervalo de valores de parámetro del filtro aplicado a la imagen. La imagen y las miniaturas se muestran en una interfaz del usuario desde la cual un usuario puede seleccionar una miniatura para aplicar el valor del parámetro ilustrado mediante la miniatura seleccionada de la imagen.
En la actualidad, existe la necesidad de nuevas interfaces del usuario para aplicar efectos fotográficos a imágenes, que sean efectivas y fáciles de usar.
La presente divulgación aborda esta necesidad. De acuerdo con otro aspecto de la presente divulgación, se proporciona un terminal para un sistema de comunicación inalámbrica, de acuerdo con la reivindicación 1 adjunta. De acuerdo con otro aspecto de la presente divulgación, se proporciona un procedimiento de acuerdo con la reivindicación 9 adjunta. De acuerdo con otro aspecto de la divulgación, se proporciona un medio legible por ordenador no transitorio de acuerdo con la reivindicación 15 adjunta.
Las realizaciones preferentes de los aspectos mencionados anteriormente se definen en las reivindicaciones dependientes adjuntas.
Los anteriores y otros objetivos, elementos y ventajas de la presente divulgación serán más evidentes a partir de la siguiente descripción detallada cuando se consideran junto con los dibujos adjuntos, en los cuales:
La FIG. 1 es un diagrama de un dispositivo electrónico de acuerdo con los aspectos de la divulgación;
La FIG. 2 es un diagrama de bloques de un módulo de gestión de filtro de acuerdo con los aspectos de la divulgación;
La FIG. 3 es un diagrama de bloques de un módulo de procesamiento de imágenes de acuerdo con los aspectos de la divulgación;
La FIG. 4 es un diagrama de flujo de un procedimiento para el procesamiento de imágenes de acuerdo con los aspectos de la divulgación;
Las FIGS. 5 a 7 son diagramas de flujo de los procedimientos para mostrar una segunda imagen de acuerdo con los aspectos de la divulgación;
Las FIGS. Las Figuras 8 y 9 son diagramas de flujo de los procedimientos para mostrar las imágenes de acuerdo con los aspectos de la divulgación;
Las FIGS. Las Figuras 10 y 11 son diagramas de flujo de los procedimientos para disponer las segundas imágenes de acuerdo con los aspectos de la divulgación;
La FIG. 12 es un diagrama de flujo de un procedimiento para mostrar las segundas imágenes de acuerdo con los aspectos de la divulgación; y
Las FIGS. 13 a 21 son diagramas de diferentes pantallas de una aplicación de cámara de acuerdo con los aspectos de la divulgación.
Descripción detallada
Los aspectos de la presente divulgación se describirán en la presente memoria a continuación con referencia a los dibujos acompañantes. En la siguiente descripción, las funciones o construcciones conocidas no se describen en detalle dado que enturbiarían la divulgación con detalles innecesarios. Y, los términos descritos a continuación, que se definen considerando funciones en la presente divulgación, pueden ser diferentes en función de la intención o práctica del usuario y del operador. Por tanto, los términos deben definirse sobre la base de la divulgación a lo largo de esta memoria descriptiva.
La FIG. 1 es un diagrama de un dispositivo electrónico 100 de acuerdo con los aspectos de la divulgación. El dispositivo electrónico 100 puede incluir un teléfono móvil, una almohadilla móvil, un reproductor multimedia, una tableta, un ordenador portátil, o un Asistente Digital Personal (PDA), y/o cualquier otro dispositivo electrónico adecuado. El dispositivo electrónico 100 puede incluir un dispositivo anfitrión 110, un dispositivo de memoria externa 121, un sensor de imagen 122, un dispositivo sensor 123, un dispositivo de recepción con Sistema de Posicionamiento Global (GPS) 124, un dispositivo de comunicación inalámbrica 125, un dispositivo de audio 126, un dispositivo con puerto externo 127, un dispositivo de pantalla táctil 128, otros dispositivos de entrada/control 129, y un dispositivo de suministro de energía 130.
El dispositivo anfitrión 110 puede incluir una memoria interna 111, uno o más procesadores 112, y una interfaz 113. La memoria interna 111, el procesador o los procesadores 112, y la interfaz 113 pueden ser elementos constitutivos separados o pueden integrarse juntos en uno o más circuitos integrados.
El procesador 112 puede incluir cualquier tipo de circuito de procesamiento adecuado, tal como un procesador basado en ARM, un procesador basado en MIPS, un procesador x86, un FPGA, u otro circuito electrónico. En algunas implementaciones, el procesador 112 puede ser parte de un sistema en un chip (SoC). En operación, el procesador 112 puede ejecutar varios programas de software y realizar varias funciones para el dispositivo electrónico 100, y realizar el procesamiento y control de la comunicación de voz, comunicación de vídeo, y comunicación de datos. Además, adicional a esta función general, el procesador 112 puede ejecutar un programa de software (es decir, un conjunto de instrucciones) almacenado en la memoria interna 111 y/o el dispositivo de memoria externa 121. Además, el procesador 112 puede desempeñar incluso la función de ejecución de un programa de software específico (es decir, un conjunto de instrucciones) almacenado en la memoria interna 111 y/o el dispositivo de memoria externa 121 y realizar diversas funciones específicas correspondientes al programa ejecutado. Por ejemplo, el procesador 112 puede interactuar con los programas de software almacenados en la memoria interna 111 y/o el dispositivo de memoria externa 121 y realizar un procedimiento de un aspecto ilustrativo. Además, el procesador 112 puede incluir una o más Unidades Procesadoras de Aplicaciones (APU), Unidades Procesadoras de Gráficos (GPU), unidades procesadoras de audio, procesador de comunicaciones, y/o cualquier tipo adecuado de circuito electrónico.
La unidad procesadora de aplicaciones puede ejecutar un Sistema Operativo (SO) y llevar a cabo una variedad de funciones, y puede ser un chip que reúne todas las funciones de un núcleo, una memoria, un sistema de visualización/controlador, un códec de codificación/decodificación de multimedia, un motor acelerador bidimensional/tridimensional (2D/3D), un Procesador de Señal de Imagen (ISP), una cámara, un audio, un módem, varias interfaces de conectividad en serie/paralelo de alta y baja velocidad y similares. Por ejemplo, la unidad procesadora de aplicaciones puede controlar el sistema operativo y las aplicaciones, y puede ser un Sistema en un Chip (SOC) que es un chip que reúne varias funciones de control de un dispositivo/interfaz del sistema.
La unidad procesadora de gráficos puede llevar a cabo operaciones relacionadas con el procesamiento de gráficos y se puede encargar del procesamiento de información de imagen, aceleración, conversión de señal, salida de pantalla y similares. En algunas implementaciones, el procesador gráfico puede procesar gráficos 2D o 3D más rápido que la unidad procesadora de aplicaciones.
La unidad procesadora de audio puede llevar a cabo operaciones relacionadas con el procesamiento de audio y puede cambiar una señal de audio de un formato digital a un formato analógico (y viceversa). La unidad procesadora de comunicaciones puede hacerse cargo del procesamiento de comunicaciones entre el dispositivo electrónico 100 y otros dispositivos y, cuando el dispositivo electrónico 100 pretende usar una función de comunicación de red, la unidad procesadora de comunicaciones puede realizar la función de establecer una conexión entre el dispositivo 100 y similares. La interfaz 113 puede conectar el dispositivo anfitrión 110 con varios dispositivos del dispositivo electrónico 100.
El dispositivo de memoria externa 121 puede incluir cualquier tipo adecuado de memoria volátil y no volátil. Por ejemplo, el dispositivo de memoria externa 121 puede incluir memorias de acceso aleatorio de alta velocidad y/o memorias no volátiles como uno o más dispositivos de almacenamiento de disco magnético, uno o más dispositivos de almacenamiento óptico y/o memorias flash (por ejemplo, NAND, NOR). El dispositivo de memoria externa 121 almacena software. El software puede incluir un programa del Sistema Operativo, un programa de comunicación, un programa de cámara, un programa gráfico, uno o más programas de aplicación, un programa de interfaz del usuario, un programa de códec y similares. El término de programa puede expresarse como un conjunto de instrucciones, o un grupo de instrucciones, o un programa. El programa de comunicación, el programa de la cámara, el programa gráfico, el uno o más programas de aplicación, el programa de interfaz del usuario, y el programa de códec pueden usar varias funciones del programa del Sistema Operativo a través de varias Interfaces de programación de aplicaciones (API).
El programa del Sistema Operativo representa un sistema operativo integrado tal como WINDOWS, LINUX, Darwin, RTXC, UNIX, OS X o VxWorks, y puede incluir varios elementos constitutivos de software que controlan el funcionamiento general del sistema. El control del funcionamiento general del sistema puede incluir la gestión y control de memoria, el control y gestión de hardware de almacenamiento (dispositivo), el control y gestión de energía y similares. Además, el programa del Sistema Operativo puede facilitar las comunicaciones entre varios elementos constitutivos de hardware (dispositivos) y software (módulos).
El programa de comunicación puede permitir una comunicación con un ordenador, servidor, o dispositivo electrónico remoto a través del dispositivo de comunicación inalámbrica 125 o el dispositivo de puerto externo 127.
El programa de la cámara puede incluir un elemento constitutivo de software relacionado con la cámara para permitir los procedimientos y funciones relacionados con la cámara. El programa de la cámara puede realizar un procesamiento previo para aplicar varios efectos a una imagen obtenida del sensor de imagen 122 bajo el soporte de API de Biblioteca gráfica abierta (OpenGL), DirectX y similares, y realizar un procesamiento posterior para aplicar varios efectos a una imagen instantánea capturada. Los filtros para esos efectos pueden gestionarse de forma colectiva de manera que los filtros puedan usarse comúnmente tanto en el procesamiento previo como en el procesamiento posterior. Además, los filtros pueden usarse incluso por otros programas adicionalmente al programa de la cámara.
El programa gráfico puede incluir varios elementos constitutivos de software para proporcionar y mostrar un gráfico en el dispositivo de pantalla táctil 128. El programa gráfico puede incluir varias API, como OpenGL, DirectX y similares, para crear gráficos. Alternativa o adicionalmente, el programa gráfico puede proporcionar varios filtros que pueden aplicar varios efectos a una imagen. Debe entenderse que el término "gráficos" se refiere a cualquier tipo de información que pueda representarse en una pantalla de visualización, y puede incluir un texto, una página web, un ícono, una imagen digital, un video, una animación y similares. En algunas implementaciones, el programa gráfico puede ser un visor de imágenes que enfoca la usabilidad al procesamiento posterior de imágenes, un programa de edición de imágenes, un programa relacionado con la cámara que está optimizado para el procesamiento previo de imágenes, un programa relacionado con video telefonía y similares. El programa gráfico puede realizar un procesamiento posterior para aplicar varios efectos a una imagen de representación completada, o puede realizar un procesamiento previo para aplicar varios efectos a una imagen. Como se describió anteriormente, los filtros para esos efectos pueden gestionarse de forma colectiva de manera que los filtros puedan usarse comúnmente con otros programas.
El programa de la cámara y/o el programa gráfico pueden llevar a cabo la función de descargar e instalar un archivo de paquete de filtro de una fuente externa (por ejemplo, una red, un correo electrónico, un servicio de mensajería, una memoria externa extraíble o similares). Si el programa de la cámara y/o el programa gráfico descarga e instala el archivo del paquete de filtro desde la red, un filtro y datos relacionados con el filtro (por ejemplo, una imagen de un ícono, un nombre de filtro, una versión de filtro y similares) que se incluyen en el archivo del paquete de filtro pueden gestionarse de forma colectiva en una base de datos. Además, cuando el filtro se borra de la base de datos, no solo el filtro, sino también el archivo del paquete de filtro puede borrarse por completo. El programa de la cámara y/o el programa gráfico pueden mostrar la imagen del ícono y el nombre del filtro que indican el filtro añadido, juntos. El nombre del filtro puede traducirse y mostrarse en el idioma del usuario. Particularmente, el programa de la cámara puede aplicar el efecto del filtro añadido a una imagen obtenida del sensor de imagen 122 y luego proporcionar la imagen mediante un ícono (por ejemplo, una imagen en miniatura).
El programa de aplicación puede incluir un navegador, un correo electrónico, un mensaje instantáneo, procesamiento de texto, emulación de teclado, una libreta de direcciones, una lista táctil, un widget, Gestión de Derechos Digitales (DRM), reconocimiento de voz, replicación de voz, una función de determinación de posición, un servicio basado en la ubicación, y/o cualquier otro software adecuado.
El programa de interfaz del usuario puede incluir varios elementos constitutivos de software relacionados con una interfaz del usuario. Además, el programa de interfaz del usuario puede incluir información que especifique la manera en que se producirán los cambios de estado en la interfaz del usuario. Dicha información puede especificar las condiciones que activan los cambios de estado o cualquier otra información adecuada.
El programa de códec puede incluir un elemento constitutivo de software relacionado con la codificación y decodificación de un archivo de video.
El dispositivo de memoria externa 121 puede incluir además programas (instrucciones) adicionales a los programas mencionados anteriormente. Además, varias funciones del dispositivo electrónico 100 pueden implementarse en el hardware, incluyendo uno o más procesamientos de flujo, Circuitos Integrados de Aplicaciones Específicas (ASIC), software y/o una combinación de software y hardware.
El sensor de imagen 122 puede convertir la luz reflejada por un objeto de disparo en una señal eléctrica. El sensor de imagen 122 puede ser un Dispositivo de Acoplamiento de Carga (CCD), un Semiconductor de Óxido Metálico Complementario (CMOS) o similares.
Varios elementos constitutivos del dispositivo electrónico 100 se pueden conectar entre sí a través de uno o más buses de comunicación (no indicados con números de referencia) o líneas de flujo (no indicadas con números de referencia).
El dispositivo sensor 123 puede incluir un sensor de movimiento, un sensor óptico, un sensor de temperatura y similares y permitir que se lleven a cabo varias funciones. Por ejemplo, el sensor de movimiento puede detectar un movimiento del dispositivo electrónico 100 y el sensor óptico puede detectar la luz ambiental.
El dispositivo de recepción GPS 124 puede recibir señales enviadas desde satélites GPS y determinar una posición actual.
El dispositivo de comunicación inalámbrica 125 puede permitir la comunicación inalámbrica y puede incluir un transmisor/receptor de frecuencia inalámbrico y un transmisor/receptor óptico (por ejemplo, infrarrojo). El dispositivo de comunicación inalámbrica 125 puede incluir un módulo que incluye al menos una antena, un conector de Radiofrecuencia (RF) y similares. El dispositivo de comunicación inalámbrica 125 puede diseñarse para operar a través de una red de Sistema Global para Comunicaciones Móviles (GSM), una red de Entorno GSM de Datos Mejorados (EDGE), una red de Acceso Múltiple por División de Código (CDMA), una Red Inalámbrica de Acceso Múltiple por División de Código (W-CDMA), una red de Evolución a Largo Plazo (LTE), una red de Acceso Múltiple por División de Frecuencias Ortogonales (OFDMA), una red de Fidelidad Inalámbrica (Wi-Fi), una red de Interoperabilidad Inalámbrica para Acceso por Microondas (WiMAX), un Red Bluetooth y/o similares de acuerdo con una red de comunicación.
El dispositivo de audio 126 se conecta a un altavoz 1261 y a un micrófono 1262 para ocuparse de la entrada y salida de audio de reconocimiento de voz, replicación de voz, grabación digital, función de llamada y similares, y puede incluir un amplificador de audio. El dispositivo de audio 126 puede comunicarse con un usuario a través del altavoz 1261 y el micrófono 1262. Además, el dispositivo de audio 126 puede recibir una señal de datos desde el dispositivo anfitrión 110, convertir la señal de datos recibida en una señal eléctrica, y emitir la señal eléctrica convertida a través del altavoz 1261. El altavoz 1261 puede convertir una señal eléctrica en una banda de frecuencia audible y emitir la banda de frecuencia audible, y el micrófono 1262 puede convertir una onda de sonido enviada desde un carácter de audio u otras fuentes de sonido en una señal eléctrica. Además, el dispositivo de audio 126 puede recibir la señal eléctrica del micrófono 1262, convertir la señal eléctrica recibida en una señal de datos de audio y transmitir la señal de datos de audio convertida al dispositivo anfitrión 110. El dispositivo de audio 126 puede incluir un audífono, un auricular o casco auricular que puede separarse del dispositivo electrónico 100.
El dispositivo de puerto externo 127 puede conectar directamente el dispositivo electrónico 100 con otros dispositivos electrónicos, o conectar indirectamente el dispositivo electrónico 100 con otros dispositivos electrónicos a través de una red (por ejemplo, Internet, una intranet, una LAN inalámbrica y similares).
El dispositivo de pantalla táctil 128 puede proporcionar una interfaz de entrada y salida entre el dispositivo del usuario 100 y un usuario. El dispositivo de pantalla táctil 128 puede tener una tecnología táctil sensible, y puede reenviar la entrada de un usuario que hace uso de esta tecnología al dispositivo anfitrión 110 y mostrar al usuario información visual proporcionada desde el dispositivo anfitrión 110, por ejemplo, un texto, un gráfico, un video y similares. En algunas implementaciones, el dispositivo de pantalla táctil 128 puede incluir una pantalla que muestra una imagen. La pantalla puede ser una Pantalla de humectación eléctrica (EWD), papel electrónico, un Panel de pantalla de plasma (PDP), una Pantalla de cristal líquido (LCD), un Diodo emisor de luz orgánica (OLED), y un Diodo emisor de luz orgánica de matriz activa (AMOLED), y/o cualquier otro tipo de pantalla adecuada. Además, el dispositivo de pantalla táctil puede incluir un dispositivo sensible al tacto, como un digitalizador de lápiz óptico, un panel táctil de superposición capacitiva, un panel táctil de superposición de resistencia, un panel táctil de onda acústica de superficie, y un panel táctil de haz infrarrojo. Aunque en este ejemplo, se usa un dispositivo de pantalla táctil que incluye componentes de visualización y detección táctil, en otros ejemplos solo puede usarse un dispositivo de visualización. En estos ejemplos, puede usarse un ratón u otro tipo de dispositivo de entrada para recibir la entrada de usuario.
Los otros dispositivos de entrada/control 129 pueden incluir un botón de subir/bajar para controlar el volumen. Además de esto, los otros dispositivos de entrada/control 129 pueden incluir al menos uno de un pulsador de una función específica, un botón de bloqueo, un interruptor basculante, una ruedecilla, un dial, una palanca, y un dispositivo puntero tal como un lápiz óptico y similares.
El dispositivo de suministro de energía 130 puede incluir al menos un Circuito Integrado de Administración de Energía (PMIC). El PMIC puede ajustar la energía de la batería. Por ejemplo, de acuerdo con una carga a procesar, el procesador 112 puede transmitir una señal de la interfaz que depende de la carga al dispositivo de suministro de energía 130. El dispositivo de suministro de energía 130 puede ajustar un voltaje del núcleo suministrado al procesador 112, adaptable al procesador 112. El procesador 112 puede funcionar a una energía mínima todo el tiempo. Además del PMIC para el dispositivo anfitrión 110 pueden elaborarse, al menos un PMIC relacionado con al menos uno del dispositivo de memoria externa 121, el sensor de imagen 122, el dispositivo sensor 123, el dispositivo de recepción GPS 124, el dispositivo de comunicación inalámbrica 125, el dispositivo de audio 126, el dispositivo de puerto externo 127, el dispositivo de pantalla táctil 128, y los otros dispositivos de entrada/control 129. Además, puede elaborarse un PMIC integrado. El PMIC integrado puede ajustar la energía de la batería no solo del dispositivo anfitrión 110 sino también al menos de un dispositivo de memoria externa 121, el sensor de imagen 122, el dispositivo sensor 123, el dispositivo de recepción g Ps 124, el dispositivo de comunicación inalámbrica 125, el dispositivo de audio 126, el dispositivo de puerto externo 127, el dispositivo de pantalla táctil 128, y los otros dispositivos de entrada/control 129.
La FIG. 2 es un diagrama de bloques de un módulo de gestión de filtro de acuerdo con los aspectos de la divulgación; El módulo de gestión de filtro puede implementarse en el hardware (por ejemplo, uno o más circuitos electrónicos), en el software (por ejemplo, como instrucciones ejecutables por procesador que son ejecutadas por el procesador 120) o como una combinación de software y hardware. Como se ilustra, el módulo de gestión de filtro puede incluir una unidad de aplicación 220, una unidad de gestión de filtro integrada 210, un directorio de filtro 230, y una unidad de descarga de filtro 240. Cada una de las unidades 220 puede implementarse en el hardware, como una o más instrucciones que son ejecutables por el procesador 120 o como una combinación de hardware y software. La unidad de aplicación 220 puede incluir al menos una aplicación que soporta el procesamiento previo de imágenes, una aplicación que soporta el procesamiento posterior de imágenes, y una aplicación que soporta tanto el procesamiento previo de imágenes como el procesamiento posterior de imágenes. La unidad de aplicación 220 puede incluir un visor de imágenes, una aplicación de edición de imágenes, una aplicación de cámara, una aplicación de vídeo telefonía y similares.
La unidad de gestión de filtro integrada 210 puede proporcionar una API de filtro de imágenes. Si la unidad de aplicación 220 realiza una solicitud de un efecto específico, la unidad de gestión de filtro integrada 210 puede cargar un filtro específico desde el directorio de filtro 230, y solicitar una función API para el filtro cargado. La unidad de gestión de filtro integrada 210 puede proporcionar aplicaciones de video telefonía y otra de un software adecuado con una API para el procesamiento previo o el procesamiento posterior de imágenes. La unidad de gestión de filtro integrada 210 puede configurarse para designar un sujeto (es decir, una CPU o GPU) que se configura para realizar la operación de filtrado de acuerdo con el filtro cargado para generar el efecto solicitado por la unidad de aplicación 210.
La unidad de gestión de filtro integrada 210 puede proporcionar una función de edición de filtro. A través de la función de edición de filtro, un usuario puede establecer una lista de efectos favoritos, y la unidad de gestión de filtro integrada 210 puede almacenar la lista de efectos favoritos en el directorio de filtro 230. Además, el usuario puede seleccionar un filtro que desee eliminar a través de la función de edición de filtro, y la unidad de gestión de filtro integrada 210 puede eliminar un filtro específico del directorio de filtro 230. Particularmente, cuando el filtro que se desea eliminar es un filtro instalado a través de un archivo de paquete de filtro (es decir, un archivo de instalación de filtro), la unidad de gestión de filtro integrada 210 puede eliminar el archivo de paquete de filtro y garantizar un espacio de almacenamiento. El archivo de paquete de filtro puede incluir un filtro, un nombre del filtro, un ícono de imagen, un proveedor, un tipo de filtro (procesamiento previo/procesamiento posterior), una versión o similares. Además, el usuario puede seleccionar múltiples efectos sintetizables a través de la función de edición de filtro, y la unidad de gestión de filtro integrada 210 puede agrupar los filtros para los efectos múltiples sintetizables, y almacenar los filtros agrupados en el directorio de filtro 230. Además, la unidad de gestión de filtro integrada 210 puede usar un filtro específico comúnmente usado para el procesamiento previo de imagen y el procesamiento posterior de imagen, porque la unidad de gestión de filtro integrada 210 almacena y gestiona colectivamente todos los filtros relacionados con el procesamiento de imágenes que funcionan en el dispositivo electrónico 100, en el directorio de filtro 230.
El directorio de filtro 230 puede almacenar una pluralidad de filtros y se pueden gestionar por medio de la unidad de gestión de filtro integrada 210. La unidad de descarga de filtro 240 puede proporcionar una función de descarga. A través de la función de descarga, un usuario puede descargar un filtro de una fuente externa (por ejemplo, una red, un correo electrónico, un servicio de mensajería, una memoria externa extraíble o similares), y la unidad de gestión de filtro integrada 210 puede almacenar el filtro adquirido en el directorio de filtro 230. Además, la unidad de descarga de filtro 240 puede proporcionar adicionalmente una función de instalación de filtro. El usuario puede descargar un archivo de paquete de filtro de la red e instalar el archivo de paquete de filtro a través de la función de instalación de filtro. Si el archivo de paquete de filtro se instala, la unidad de gestión de filtro integrada 210 puede almacenar un filtro y los datos relacionados con el filtro (por ejemplo, un nombre de filtro, un ícono de imagen, un proveedor, un tipo de filtro o similares) que se incluyen en el archivo de paquete de filtro, en el directorio de filtro 230.
La FIG. 3 es un diagrama de bloques de un módulo de procesamiento de imágenes de acuerdo con los aspectos de la divulgación. El módulo de procesamiento de imágenes 250 se puede implementar en hardware (por ejemplo, como uno o más circuitos electrónicos), en software (por ejemplo, como instrucciones ejecutables por procesador que son ejecutadas por el procesador 120), o como una combinación de software y hardware. Como se ilustra, el módulo de procesamiento de imágenes 250 puede incluir un módulo de adquisición 260, un módulo de visualización 270, y un módulo de aplicación de efecto 280.
En operación, el módulo de adquisición 260 puede obtener una primera imagen a través del sensor de imagen 122. El módulo de visualización 270 puede mostrar al menos una segunda imagen correspondiente al efecto de la primera imagen, junto con la primera imagen. En respuesta a una selección de la al menos una segunda imagen, el módulo de aplicación de efecto 280 puede mostrar al menos una porción de la primera imagen mediante el uso del efecto.
La Figura 4 es un diagrama de flujo de un procedimiento para el procesamiento de imágenes de acuerdo con los aspectos de la divulgación. En la operación 401, se obtiene una primera imagen del sensor de imagen 122. A continuación, en la operación 403, se muestra al menos una segunda imagen correspondiente a un efecto (o filtro) para la primera imagen junto con la primera imagen. La primera imagen puede actualizarse en tiempo real a medida que se reciben las señales del sensor de imagen 122. La segunda imagen puede crearse mediante la aplicación de un efecto específico a la primera imagen. La segunda imagen puede mostrarse como un ícono (por ejemplo, una imagen en miniatura). En algunas implementaciones, la segunda imagen también puede actualizarse en tiempo real a medida que se reciben las señales del sensor de imagen 122. En la operación 405, en respuesta a una selección de al menos una segunda imagen, al menos una porción de la primera imagen puede volver a mostrarse mediante el uso del efecto correspondiente a la segunda imagen seleccionada. En algunas implementaciones, se genera una tercera imagen mediante el uso del efecto correspondiente a la segunda imagen seleccionada. Por ejemplo, un usuario puede seleccionar la segunda imagen mostrada en la pantalla a través de una acción con la mano (por ejemplo, un toque, al pasar el mouse, un solo toque, un doble toque, un arrastrar y soltar, un deslizamiento con el dedo o similares). Si hay una selección de la segunda imagen, la tercera imagen se genera y se muestra en lugar de la primera imagen. Si la segunda imagen se selecciona muchas veces, la tercera imagen se genera mediante la aplicación del efecto de la segunda imagen tantas veces como se selecciona la segunda imagen. Alternativa o adicionalmente, en algunas implementaciones, puede seleccionarse una pluralidad de segundas imágenes a la vez. En tales casos, la tercera imagen puede generarse mediante la aplicación del efecto de cada una de las segundas imágenes seleccionadas. Por tanto, la selección de múltiples segundas imágenes, en este ejemplo, puede hacer que se apliquen múltiples filtros a la primera imagen cuando se muestra la primera imagen. En algunas implementaciones, la tercera imagen puede generarse mediante la aplicación de los efectos o filtros, como se discutió anteriormente, a la primera imagen. Alternativa o adicionalmente, en algunas implementaciones, la tercera imagen puede generarse mediante la aplicación de los efectos o filtros, como se discutió anteriormente, a un cuadro de imagen que es capturado por el sensor de imagen 122 después de la primera imagen.
La FIG. 5 es un diagrama de flujo de un procedimiento para mostrar una segunda imagen de acuerdo con los aspectos de la divulgación. En la operación 501, se carga al menos un efecto (o filtro correspondiente al efecto). A continuación, en la operación 503, se genera al menos una segunda imagen mediante la aplicación del efecto cargado (o filtro correspondiente al efecto) a una primera imagen que se adquiere del sensor de imagen 122. Posteriormente, se muestra la segunda imagen generada.
La FIG. 6 es un diagrama de flujo de otro procedimiento para mostrar una segunda imagen de acuerdo con los aspectos de la divulgación. En la operación 601, puede adquirirse un filtro de efecto desde un dispositivo externo (por ejemplo, una red, un correo electrónico, un servicio de mensajería, una memoria externa extraíble o similares). Una vez adquirido, el filtro de efecto puede almacenarse en un directorio que las aplicaciones suelen usar. A continuación, en la operación 603, se genera una segunda imagen mediante la aplicación del filtro de efecto adquirido a una primera imagen que se adquiere del sensor de imagen 122. Posteriormente, puede mostrarse la segunda imagen generada.
La FIG. 7 es un diagrama de flujo de otro procedimiento adicional para mostrar una segunda imagen de acuerdo con los aspectos de la divulgación. En la operación 701, se selecciona (o identifica) un grupo de efectos (o filtros correspondientes a los efectos). En algunas implementaciones, el grupo puede incluir múltiples instancias del mismo efecto (o filtro). Alternativa o adicionalmente, en algunas implementaciones, el grupo puede incluir diferentes efectos (o filtros). Alternativa o adicionalmente, en algunas implementaciones, la agrupación de los efectos (o filtros) se puede activar por medio de la recepción de la entrada de usuario (por ejemplo, la presión de un botón de la cámara) después de la selección de una pluralidad de segundas imágenes que fueron generadas mediante el uso de los efectos que se desean incluir en el grupo. A continuación, en la operación 703, puede procesarse una primera imagen obtenida del sensor de imagen 122 mediante la aplicación de todos los efectos del grupo a la primera imagen, y puede mostrarse la imagen filtrada resultante.
La FIG. 8 es un diagrama de flujo de un procedimiento para mostrar las imágenes de acuerdo con los aspectos de la divulgación. En la operación 801, se determina si la misma segunda imagen se selecciona varias veces. Si la misma segunda imagen se selecciona varias veces, el procesador 112 realiza la operación 803. De cualquier otra manera, si la misma imagen no se selecciona varias veces, el procesador 112 puede realizar la operación 807. A continuación, en la operación 803, se emite una indicación del número de veces que se selecciona la misma segunda imagen para su presentación a un usuario. Después de eso, en la operación 805, el procesador 112 puede generar una imagen filtrada mediante la aplicación, a una primera imagen, del efecto (o filtro) correspondiente a la segunda imagen tantas veces como se seleccione la segunda imagen. Posteriormente, puede mostrarse la imagen filtrada generada. En la operación 807, el procesador 112 puede generar y posteriormente mostrar una imagen filtrada mediante la aplicación, a la primera imagen, del efecto (o filtro) de la segunda imagen una única vez.
La Figura 9 es un diagrama de flujo de otro procedimiento para mostrar imágenes de acuerdo con los aspectos de la divulgación. En la operación 901, se determina si hay una selección de múltiples segundas imágenes diferentes. Si se seleccionan segundas imágenes diferentes, se realiza la operación 903. En la operación 903, los efectos (o filtros) correspondientes a cada una de las segundas imágenes seleccionadas se aplican a una primera imagen para generar una imagen filtrada y luego se muestra la imagen filtrada generada. De cualquier otra manera, si no se seleccionan múltiples imágenes, se lleva a cabo el procedimiento discutido con respecto a la Figura 8.
La FIG. 10 es un diagrama de flujo de un procedimiento para disponer de segundas imágenes de acuerdo con los aspectos de la divulgación. En la operación 1001, se determina la frecuencia con la que se selecciona cada uno de los filtros (o efectos correspondientes a los filtros) de la pluralidad de segundas imágenes. A continuación, en la operación 1003, se determina un orden en el que se van a disponer las segundas imágenes de la pluralidad en base a las frecuencias de selección determinadas. Posteriormente, en la operación 1005, las segundas imágenes se disponen en el orden determinado. Aunque en este ejemplo, el orden de las segundas imágenes se determina en base a los filtros respectivos de las segundas imágenes (o efectos correspondientes a los filtros), en otro ejemplo la ubicación en la pantalla táctil 128 donde se muestra una imagen dada se determina en base a la frecuencia con que se selecciona el filtro (o efecto) respectivo de esa segunda imagen.
La FIG. 11 es un diagrama de flujo de otro procedimiento para disponer de segundas imágenes de acuerdo con los aspectos de la divulgación. En la operación 1101, se identifican una o más segundas imágenes que se asocian con los efectos (o filtros) similares. A continuación, en la operación 1103, las segundas imágenes identificadas se disponen en un grupo. En algunas implementaciones, cuando las segundas imágenes se disponen en un grupo, pueden mostrarse una al lado de la otra.
La FIG. 12 es un diagrama de flujo de un procedimiento para mostrar las segundas imágenes de acuerdo con los aspectos de la divulgación. Con referencia a la Figura 12, en la operación 1201, el procesador 112 (por ejemplo, el módulo de visualización 270) puede activar al menos una segunda imagen que se asocia con un efecto que no puede sintetizarse junto con el efecto de una segunda imagen que ha sido deseleccionada (por ejemplo, una imagen cuya selección se elimina al desmarcar una casilla de verificación asociada con la imagen). A continuación, en la operación 1203, el procesador 112 puede al menos desactivar una segunda imagen que no ha sido seleccionada en base a que la segunda imagen desactivada se asocia con un efecto que no es sintetizable junto con el efecto de una segunda imagen que ha sido seleccionada. En algunas implementaciones, dos efectos pueden considerarse mutuamente sintetizables cuando los filtros que implementan los efectos pueden aplicarse en una imagen uno tras otro. Como ejemplo trivial, un efecto que cambia todos los colores rojos de una imagen a azul puede no ser aplicable después de un efecto que implica transformar la imagen en un espacio de color en la escala de grises. En algunas implementaciones, cuando se desactiva una segunda imagen, es posible que el usuario no seleccione esa segunda imagen.
Las Figuras 13 a 21 ilustran pantallas de una aplicación de cámara de acuerdo con varios aspectos de la divulgación. En estos ejemplos, la aplicación de cámara puede usar una API de cámara proporcionada por un sistema operativo (SO) de dispositivo electrónico (por ejemplo, un teléfono inteligente). La API de la cámara puede proporcionar varios filtros para modificar las imágenes capturadas por la cámara. La aplicación de cámara, puede cargar esos filtros según sea necesario.
La Figura 13 ilustra una pantalla original 1300 de la aplicación de cámara. De acuerdo con este ejemplo, la pantalla 1300 puede mostrar datos de imagen que están siendo capturados por el sensor de imagen 122 en el panel de imagen 1310. En algunas implementaciones, el contenido del panel de imagen 1310 puede actualizarse periódicamente, a medida que se capturan nuevas imágenes con el sensor de imagen 122. La pantalla 1300 puede mostrar un botón de menú de efectos 1302. Si se presiona el botón de menú de efectos 1302, la pantalla 1300 puede mostrar íconos correspondientes a los efectos aplicables a los datos de imagen. Además, la pantalla 1300 puede mostrar un botón de cámara 1303. Si se presiona el botón de cámara 1303, la pantalla 1300 puede obtener una imagen instantánea. La imagen instantánea se refiere a una imagen de alta definición que puede obtenerse cuando se presiona el botón de cámara 1303. Cuando se obtiene la imagen instantánea, el panel de imagen 1310 puede dejar de actualizarse en tiempo real y la imagen instantánea puede mostrarse en la pantalla de manera permanente, hasta que el usuario desee reanudar la visualización en tiempo real de los datos capturados por el sensor de imagen 122. Cuando el usuario presiona el botón de menú de efectos 1302, la pantalla 1300 cambia a una pantalla 1400 de la Figura 14.
Con referencia a la Figura 14, si el usuario presiona el botón de menú de efectos 1302, el botón de menú de efectos 1302 se desplaza hacia arriba y una pluralidad de íconos 1401, 1402, 1403, 1404, 1405, y 1406 pueden aparecer dispuestos horizontalmente en un lado inferior de la pantalla 1400. Los iconos 1401, 1402, 1403, 1404, 1405, y 1406 pueden disponerse horizontalmente en un lado superior de la pantalla 1400 o pueden disponerse verticalmente en un lado izquierdo o derecho de la pantalla 1400. Si el usuario presiona el botón de menú de efectos 1302 una vez más, el botón de menú de efectos 1302 puede volver a la posición original de la pantalla 1300 de la Figura 13, y los iconos 1401, 1402, 1403, 1404, 1405 y 1406 pueden desaparecer. Si el usuario toca una región que muestra datos de imagen obtenidos del sensor de imagen 122, la pantalla 1400 puede volver a la pantalla 1300 de la Figura 13. En ausencia de una selección de los íconos 1401, 1402, 1403, 1404, 1405, y 1406 dentro de un período de tiempo predeterminado, la pantalla 1400 puede volver a la pantalla 1300 de la Figura 13.
El primer ícono 1401 puede mostrar datos de imagen obtenidos sin aplicar ningún efecto a los datos de imagen obtenidos del sensor de imagen 122. Los otros íconos 1402, 1403, 1404, 1405, y 1406 pueden mostrar imágenes que se obtienen mediante el procesamiento de datos de imagen obtenidos del sensor de imagen 122 con varios filtros. Los íconos 1402, 1403, 1404, 1405, y 1406 pueden mostrar datos de imagen obtenidos mediante la aplicación de efectos a los datos de imagen obtenidos del sensor de imagen 122, respectivamente. Por ejemplo, el segundo ícono 1402 puede mostrar datos de imagen obtenidos mediante la aplicación del efecto "ROJO" a los datos de imagen obtenidos del sensor de imagen 122. Como otro ejemplo, el tercer ícono 1403 puede mostrar datos de imagen obtenidos mediante la aplicación del efecto "VERDE" a los datos de imagen obtenidos del sensor de imagen 122.
El primer ícono 1401 puede mostrar una etiqueta que contiene la palabra "ORIGINAL" 1411 que indica que la imagen de este ícono es una versión sin filtrar de los datos de imagen que se obtienen del sensor de imagen 122.
Los otros iconos 1402, 1403, 1404, 1405, y 1406 pueden mostrar etiquetas que identifican los efectos (o filtros) respectivos del botón 1412, 1413, 1414, 1415, y 1416 que indican efectos, respectivamente. Como se indicó anteriormente, el filtro respectivo de un ícono dado es un filtro que puede usarse para generar la imagen de ese ícono.
Los íconos 1401-1406 son desplazables. Si el usuario realiza un gesto rápido (1420) sobre los íconos 1401-1406, esos íconos se pueden desplazar hacia la izquierda de la pantalla 1400 y reemplazar con los nuevos íconos 1501, 1502, 1503, 1504, 1505, y 1506 como se observa en una pantalla 1500 de la Figura 15. Si el usuario selecciona el segundo icono 1502 en la pantalla 1500 de la FIG. Si el usuario selecciona el segundo ícono 1502 en la pantalla 1500 de la Figura 15, los datos de imagen obtenidos del sensor de imagen 122 se pueden procesar mediante el uso del filtro correspondiente al segundo ícono 1502 para producir datos de imagen resultantes y los datos de imagen resultantes se pueden mostrar en el panel de imagen 1310. Como se ilustra en la FIG. 15, en este ejemplo, el segundo botón 1502 se asocia con un filtro de efecto de boceto.
El segundo ícono 1502 se puede seleccionar por medio de cualquier acción adecuada, con la mano de un usuario. La acción con la mano de un usuario para la selección de un ícono puede ser un toque, pasar el mouse, un solo toque, un doble toque, arrastrar y soltar, deslizar 1523, y similares. Por ejemplo, el usuario puede seleccionar el segundo ícono si el usuario toca y desliza (1523) el segundo ícono 1502 hacia un punto en el panel de imagen 1310, Con referencia a la FIG. 16, un ícono seleccionado 1502 puede mostrar una casilla de selección 1622 que indica que se ha seleccionado. Si el usuario toca la casilla de selección 1622, la selección del ícono 1502 puede desmarcarse. Si el usuario toca y desliza (1623) la región que muestra los datos de imagen obtenidos del sensor de imagen 122 del ícono seleccionado 1502, la selección del ícono 1502 puede desmarcarse. Si se desmarca la selección del ícono 1502, la casilla de selección 1622 puede desaparecer. Si se desmarca la selección del ícono 1502, se elimina el efecto de boceto aplicado a la imagen mostrada en el panel de imagen 1310. Si se desmarca la selección del ícono 1502, el panel de imagen 1310 puede mostrar datos de imagen obtenidos del sensor de imagen 122 sin modificar esos datos primero con uno de los filtros correspondientes a los íconos 1502-1506. Alternativa o adicionalmente, en algunas implementaciones, si el usuario toca el primer ícono 1401 antes mencionado, la selección del ícono 1502 también puede desmarcarse.
Con referencia a la Figura 17, si se selecciona una pluralidad de íconos diferentes, una pantalla 1700 puede mostrar en el panel de imagen 1310 los datos de imagen obtenidos por medio de la aplicación de múltiples efectos a los datos de imagen obtenidos del sensor de imagen 122. Por ejemplo, si se seleccionan el segundo ícono 1502 y el quinto ícono 1505, el panel de imagen 1310 puede mostrar datos de imagen obtenidos mediante la aplicación de un efecto de boceto y un efecto monocromático a los datos de imagen obtenidos del sensor de imagen 122.
Con referencia a la FIG. 18, si se selecciona un ícono muchas veces, una pantalla 1800 puede mostrar datos de imagen obtenidos por medio de la aplicación, a datos de imagen obtenidos del sensor de imagen 122, de un efecto correspondiente al ícono seleccionado tantas veces como se seleccione el ícono. Por ejemplo, si el segundo ícono 1502 se selecciona una vez y el quinto ícono 1505 se selecciona tres veces (por ejemplo, por medio de tres toques sobre el ícono), el panel de imagen 1310 puede mostrar los datos de imagen resultantes obtenidos por medio de la aplicación de un efecto de boceto una única vez y un efecto monocromático tres veces a los datos de imagen obtenidos del sensor de imagen 122. El segundo ícono 1502 seleccionado y el quinto ícono 1505 pueden mostrar los números '1' (1832) y '3' (1835) que indican el número de veces que se han seleccionado el segundo ícono 1502 y el quinto ícono 1505, respectivamente. El segundo ícono 1502 seleccionado una vez puede mostrar sólo una casilla de selección 1822 y/o el número '1' (1832). Si el usuario toca una casilla de selección 1825 del quinto ícono 1505 una vez, la pantalla 1800 puede cambiar el número '3' que se muestra en el quinto ícono 1505 a '2', de esta manera se provoca que el panel de imagen 1310 muestre los datos de imagen resultantes que se obtienen mediante la aplicación del filtro correspondiente al ícono 1502 (filtro de efecto de boceto) una única vez y mediante la aplicación del filtro correspondiente al ícono 1505 (filtro monocromático) dos veces. En ese sentido, cada uno de los íconos 1501-1506 puede incluir componentes de interfaz del usuario para aumentar y/o disminuir el número de veces que se va a aplicar un filtro correspondiente a ese ícono.
Con referencia a la FIG. 19, se muestra una pantalla 1900 en la que el número de veces que se han seleccionado los íconos se indica por medio de los guiones 1932 y 1935 superpuestos a las imágenes de los íconos, en lugar de números.
Con referencia a la FIG. 20, se muestra un ejemplo de pantalla 2000. En este ejemplo, los íconos cuyos efectos correspondientes son incompatibles con los efectos de los íconos seleccionados se deshabilitan. Como se ilustra, en este ejemplo, el ícono 1502 se selecciona y los íconos 1504 y 1506 se deshabilitan, mientras que los íconos 1503 y 1505 pueden permanecer activos. Como se indicó anteriormente, en algunas implementaciones, dos efectos (o filtros correspondientes a los efectos) se consideran compatibles cuando se sintetizan mutuamente. Alternativa o adicionalmente, dos efectos (o filtros correspondientes a los efectos) se consideran incompatibles cuando no pueden sintetizarse mutuamente.
Con referencia a la Figura 21, se muestra un ejemplo de una pantalla 2100 en la que se adquiere una imagen instantánea. Cuando se adquiere una imagen instantánea, las imágenes que se muestran en el panel de imágenes 1310 y los iconos 1401, 2102, y 1403-1406 se dejan de actualizar periódicamente y pasan a un estado en el que solo muestran la imagen adquirida (por ejemplo , una instantánea). Como se ilustra, los íconos pueden mostrar la imagen adquirida como modificada mediante la aplicación de múltiples efectos. Por ejemplo, si se presiona el botón de cámara 1303 en la pantalla 1800 de la Figura 18, la pantalla 2100 puede obtener una imagen instantánea, y puede aplicar el grupo de efectos (es decir, el nivel de efecto de boceto 1, y el nivel de efecto monocromático 3) correspondiente a los iconos seleccionados a la imagen instantánea.
En algunas implementaciones, el contenido de uno de los iconos puede variar en función de los otros iconos que se hayan seleccionado. Por ejemplo, la pantalla 2100 puede mostrar un ícono 2102 cuyo contenido se basa en el grupo identificado de efectos discutidos con respecto a la Figura 18. Más específicamente, en algunos casos, el ícono 2102 puede mostrar datos de imagen obtenidos mediante la aplicación de los efectos agrupados a los datos de imagen obtenidos del sensor de imagen 122. Alternativa o adicionalmente, en algunas implementaciones, el ícono 2102 puede mostrar información 2132 que indica el nombre de dos o más de los efectos que se aplican a las imágenes obtenidas del sensor de imagen 122 y/o el número de veces que cada uno de los efectos se aplica.
Alternativa o adicionalmente, en algunos casos, las ubicaciones en la pantalla 2100 donde se muestra un ícono se pueden cambiar en respuesta a la entrada de usuario. Por ejemplo, si el usuario toca y arrastra el segundo ícono 2102 entre el cuarto ícono 1404 y el quinto ícono 1405 y luego suelta el arrastre, el segundo ícono 2102 puede desplazarse entre el cuarto ícono 1404 y el quinto ícono 1405. Alternativa o adicionalmente, el usuario puede desplazar un ícono más hacia el centro del panel de imagen 1310 de la misma manera. Alternativa o adicionalmente, la posición de al menos uno de los íconos 1401, 2102, y 1403-1406 en la pantalla 2100 puede determinarse automáticamente. Por ejemplo, un ícono de alta frecuencia de selección puede disponerse en una ubicación favorable para el acceso de un usuario. En algunas implementaciones, los íconos cuyos respectivos filtros tienden a seleccionarse con más frecuencia que los filtros de otros íconos mostrados pueden mostrarse en una porción superior de la pantalla (mientras que los otros íconos se muestran en la porción inferior de la pantalla). Además, en algunas implementaciones, un ícono se puede convertir en no desplazable en base a la frecuencia con la que se selecciona el filtro del ícono al superar un umbral predeterminado, lo que da como resultado que el usuario pueda desplazar otros íconos, como se discutió con respecto a la Figura 14, pero no el icono cuya frecuencia de selección del filtro ha superado el umbral. Además, en algunas implementaciones, los íconos de efectos similares pueden disponerse en un grupo. Por ejemplo, en la FIG. 14, el ícono 1402 del efecto 'ROJO', el ícono 1403 del efecto 'VERDE', y el ícono 1404 del efecto 'AZUL' se utilizan todos para llevar a cabo un ajuste a un sentido de color y, por lo tanto, se pueden disponer en un grupo (por ejemplo, colocándose uno al lado del otro). Un criterio para determinar una similitud de efectos puede ser el brillo, croma y similares.
Alternativa o adicionalmente, en algunas implementaciones, la aplicación de cámara puede proporcionar una función de adición de filtro. A través de la función de adición de filtro, un usuario puede obtener un filtro de un servidor externo, como un servidor remoto. El filtro puede obtenerse a través de una conexión de red de comunicaciones, correo electrónico, servicio de mensajería, una memoria externa extraíble, y/o cualquier otro procedimiento adecuado. El filtro obtenido de la fuente externa puede almacenarse en un directorio designado, y puede usarse comúnmente en las aplicaciones. La aplicación de cámara puede agregar un ícono correspondiente al filtro obtenido de la fuente externa. Este ícono puede mostrar datos de imagen obtenidos mediante la aplicación del efecto del filtro a los datos de imagen obtenidos del sensor de imagen 122.
Alternativa o adicionalmente, en algunas implementaciones, un usuario puede descargar un archivo de paquete de filtro de un tipo de aplicación desde una red, y puede instalar el archivo de paquete de filtro. Si el archivo de paquete de filtro se instala, un filtro incluido en el archivo de paquete de filtro puede almacenarse en un directorio designado de manera que las aplicaciones puedan hacer un uso común del filtro. Este filtro puede agregarse automáticamente a una lista de filtro de la aplicación de cámara y, adicionalmente, puede mostrarse un ícono correspondiente al filtro agregado a través del esquema mencionado anteriormente.
Las Figuras 4 a 11 se proporcionan solo como ejemplos. Al menos algunas de las operaciones discutidas con respecto a estas figuras pueden ejecutarse en paralelo, en diferente orden, u omitirse por completo. Cualquiera de las operaciones de discutidas con respecto a las Figuras 4 a 11 puede ser ejecutado por un circuito de procesamiento, tal como un procesador 112. Además, en algunas implementaciones, diferentes operaciones discutidas con respecto a las Figuras 4 a 11 pueden ser ejecutados por diferentes módulos de circuitos de procesamiento. Se apreciará fácilmente, que los procesos discutidos con respecto a las FIGS. 4 a 11 se puede implementar en hardware, en software (por ejemplo, como instrucciones ejecutables del procesador ejecutadas por un procesador), o como una combinación de hardware y software). Se entenderá además que los términos "efecto" y "filtro" se usan indistintamente a lo largo de la divulgación.
Las realizaciones de la presente divulgación se pueden implementar en hardware, microprograma o por medio de la ejecución de software o código informático que se puede almacenar en un medio de grabación como un CD ROM, un Disco Versátil Digital (DVD), una cinta magnética, una RAM, un disquete, un disco duro, o un disco magnetoóptico o código informático descargado a través de una red y originalmente almacenado en un medio de grabación remoto o un medio legible por máquina no transitorio para ser almacenado en un medio de grabación local, de forma que los procedimientos descritos en la presente memoria se pueden reproducir por medio de dicho software que se almacena en el medio de grabación mediante el uso de un ordenador de propósito general, o un procesador especial o en hardware programare o dedicado, tal como un ASIC o FPGA. Como se entenderá en la técnica, el ordenador, el procesador, el controlador de microprocesador o el hardware programable incluyen componentes de memoria, por ejemplo, RAM, ROM, Flash, etc., que pueden almacenar o recibir software o código informático que cuando se accede y ejecuta mediante ordenador, procesador o hardware implementan los procedimientos de procesamiento descritos en la presente memoria. Además, se reconocería que cuando un ordenador de propósito general accede al código para implementar el procedimiento mostrado en la presente memoria, la ejecución del código transforma el ordenador de propósito general en un ordenador de propósito especial para ejecutar el procedimiento mostrado en la presente memoria. Cualquiera de las funciones y etapas proporcionadas en las figuras pueden implementarse en hardware, software o una combinación de ambos y pueden realizarse en su totalidad o en parte dentro de las instrucciones programadas de un ordenador.
Aunque la divulgación se ha mostrado y descrito con referencia a ciertos aspectos preferentes de la misma, los expertos en la técnica entenderán que se pueden llevar a cabo varios cambios en la forma y detalles de esta sin apartarse del ámbito de la divulgación como se define en las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un dispositivo electrónico (100) que comprende:
uno o más procesadores (112);
una pantalla táctil (128);
un sensor de imagen (122); y
una memoria (111, 121) que almacena una pluralidad de instrucciones, en la que la pluralidad de instrucciones hace que uno o más procesadores (112) lleven a cabo una pluralidad de operaciones que comprenden:
proporcionar, en la pantalla táctil (128), una pantalla de una aplicación de cámara, la pantalla (1400) que incluye un panel de imagen (1310) que ocupa un área mayoritaria de la pantalla táctil;
CARACTERIZADO POR
mostrar, en el panel de imagen (1310) de la pantalla, una primera imagen basada en los datos de imagen obtenidos del sensor de imagen (122), y un botón de menú de efectos (1302), en el que la primera imagen se muestra como una imagen de vista previa de gran tamaño, que ocupa la mayor parte del área de la pantalla táctil (128), refrescada en base a los datos de imagen obtenidos en tiempo real del sensor de imagen (122);
responder a la recepción de una entrada táctil que selecciona el botón del menú de efectos (1302), mostrar, en un área desplazable sobre el panel de imágenes (1310), una pluralidad de segundas imágenes (1401-1406; 1501-1506), en la que cada una de la pluralidad de segundas imágenes se muestra como una imagen de vista previa de tamaño miniatura refrescada por medio de la aplicación de un efecto de imagen respectivo a los datos de imagen obtenidos en tiempo real del sensor de imagen (122);
responder a la recepción de una entrada táctil que selecciona al menos una de la pluralidad de segundas imágenes (1401-1406; 1501-1506), mostrar una tercera imagen por medio de la aplicación de un efecto de imagen respectivo de la seleccionada al menos una de la pluralidad de segundas imágenes a los datos de imagen obtenidos en tiempo real del sensor de imagen (122) en lugar de la primera imagen junto con la pluralidad de segundas imágenes (1401-1406; 1501-1506); y
generar, en respuesta a una entrada que solicita la captura de una imagen fija, la imagen fija por medio de la aplicación del respectivo efecto de imagen de la tercera imagen a los datos de imagen obtenidos del sensor de imagen (122),
en el que las segundas imágenes se actualizan como miniaturas de imágenes de vista previa junto con la tercera imagen como imagen de vista previa al menos hasta que se reciba la entrada para capturar la imagen fija.
2. El dispositivo electrónico (100) de la reivindicación 1, en el que, basándose en un gesto de deslizamiento (1420) introducido en el área desplazable, la pluralidad de segundas imágenes mostradas en el área desplazable se desplazan y se sustituyen por otra pluralidad de segundas imágenes (1501-1506), cada una de las cuales se muestra como una imagen de vista previa de tamaño miniatura refrescada por medio de la aplicación de un efecto de imagen respectivo a los datos de imagen obtenidos.
3. El dispositivo electrónico (100) de la reivindicación 1 o 2, en el que la entrada que solicita la captura de la imagen fija comprende una entrada táctil que selecciona un icono mostrado.
4. El dispositivo electrónico (100) de la reivindicación 1, 2 o 3, en el que la imagen fija tiene una mayor definición que la tercera imagen.
5. El dispositivo electrónico (100) de cualquiera de las reivindicaciones anteriores, en el que la recepción de la entrada táctil que selecciona la al menos una de la pluralidad de segundas imágenes comprende una primera entrada táctil que selecciona una de la pluralidad de segundas imágenes y una segunda entrada táctil que selecciona otra de la pluralidad de segundas imágenes.
6. El dispositivo electrónico (100) de cualquiera de las reivindicaciones anteriores, en el que el uno o más procesadores (112) están configurados además para: responder a la detección de la entrada táctil que selecciona al menos una de la pluralidad de segundas imágenes, indicar la seleccionada de la pluralidad de segundas imágenes distinguida de otra de la pluralidad de segundas imágenes.
7. El dispositivo electrónico (100) de cualquiera de las reivindicaciones anteriores, en el que el uno o más procesadores (112) están configurados además para:
detectar una entrada táctil con respecto al botón de menú de efectos (1302) mientras se muestra la pluralidad de segundas imágenes; y
responder a la entrada táctil, finalizar la visualización de la pluralidad de segundas imágenes en el área desplazable.
8. El dispositivo electrónico (100) de cualquiera de las reivindicaciones anteriores, en el que el uno o más procesadores (112) están además configurados para: mostrar, en relación con cada una de la pluralidad de segundas imágenes, una indicación indicativa del efecto de imagen respectivo en un idioma específico.
9. Un procedimiento en un dispositivo electrónico (100) que comprende uno o más procesadores (112), una pantalla táctil (128) y un sensor de imagen (122), el procedimiento comprende:
proporcionar, en la pantalla táctil (128), una pantalla (1400) de una aplicación de cámara, la pantalla que incluye un panel de imagen (1310) que ocupa un área mayoritaria de la pantalla táctil (128);
mostrar, en el panel de imagen (1310) de la pantalla, una primera imagen basada en los datos de imagen obtenidos del sensor de imagen (122), y un botón de menú de efectos (1302), en el que la primera imagen se muestra como una imagen de vista previa de gran tamaño, que ocupa la mayor parte del área de la pantalla táctil (128), refrescada en base a los datos de imagen obtenidos en tiempo real del sensor de imagen (122); responder a la recepción de una entrada táctil que selecciona el botón del menú de efectos (1302), mostrar, en un área desplazable sobre el panel de imágenes (1310), una pluralidad de segundas imágenes (1401­ 1406; 1501-1506), en la que cada una de la pluralidad de segundas imágenes (1401-1406; 1501-1506) se muestra como una imagen de vista previa de tamaño miniatura refrescada por medio de la aplicación de un efecto de imagen respectivo a los datos de imagen obtenidos en tiempo real del sensor de imagen (122); responder a la recepción de una entrada táctil que selecciona al menos una de la pluralidad de segundas imágenes (1401-1406; 1501-1506), mostrar una tercera imagen por medio de la aplicación de un efecto de imagen respectivo de la seleccionada al menos una de la pluralidad de segundas imágenes (1401-1406; 1501-1506) a los datos de imagen obtenidos en tiempo real del sensor de imagen en lugar de la primera imagen junto con la pluralidad de segundas imágenes (1401-1406; 1501-1506); y
generar, en respuesta a una entrada que solicita la captura de una imagen fija, la imagen fija por medio de la aplicación del respectivo efecto de imagen de la tercera imagen a los datos de imagen obtenidos del sensor de imagen,
en el que las segundas imágenes (1401-1406; 1501-1506) se actualizan como miniaturas de imágenes de vista previa junto con la tercera imagen como imagen de vista previa al menos hasta que se reciba la entrada para capturar la imagen fija.
10. El procedimiento de la reivindicación 9, comprende además: responder a la detección de una entrada de gesto de deslizamiento (1420) en el área desplazable, desplazar la pluralidad de segundas imágenes (1401-1406) mostradas en el área desplazable y sustituir la pluralidad de segundas imágenes por otra pluralidad de segundas imágenes (1501-1506), cada una de las cuales se muestra como una imagen de vista previa de tamaño miniatura refrescada por medio de la aplicación de un efecto de imagen respectivo a los datos de imagen obtenidos.
11. El procedimiento de la reivindicación 9 o 10, en el que la entrada que solicita la captura de la imagen fija comprende una entrada táctil que selecciona un icono mostrado.
12. El procedimiento de la reivindicación 9, 10 u 11, en el que la imagen fija tiene una mayor definición que la tercera imagen.
13. El procedimiento de cualquiera de las reivindicaciones 9 a 12, en el que la recepción de la entrada táctil que selecciona la al menos una de la pluralidad de segundas imágenes (1401-1406; 1501-1506) comprende además: recibir una primera entrada táctil que seleccione una de la pluralidad de segundas imágenes (1401-1406; 1501-1506) y una segunda entrada táctil que seleccione otra de la pluralidad de segundas imágenes (1401­ 1406; 1501-1506).
el procedimiento preferentemente comprende además: en respuesta a la detección de la entrada táctil que selecciona al menos una de la pluralidad de segundas imágenes (1401-1406; 1501-1506), indicar que la seleccionada de la pluralidad de segundas imágenes (1401-1406; 1501-1506) se distingue de otras de la pluralidad de segundas imágenes (1401-1406; 1501-1506).
14. El procedimiento de cualquiera de las reivindicaciones 9 a 13, que comprende además:
detectar otra entrada táctil para seleccionar el botón del menú de efectos mientras se muestra la pluralidad de segundas imágenes (1401-1406; 1501-1506); y
responder a la detección de otra entrada táctil, terminar la visualización de la pluralidad de segundas imágenes (1401-1406; 1501-1506) en el área desplazable.
El procedimiento preferentemente además comprende: mostrar, en relación con cada una de la pluralidad de segundas imágenes, una indicación indicativa del efecto de imagen respectivo en un idioma específico.
15. Un medio no transitorio legible por ordenador que almacena una pluralidad de instrucciones que, al ser ejecutadas por uno o más procesadores, hacen que éstos ejecuten el procedimiento de cualquiera de las reivindicaciones 9 a 14.
ES20195039T 2013-03-14 2014-03-13 Dispositivo electrónico y procedimiento para el procesamiento de imágenes Active ES2925457T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130027590A KR102063915B1 (ko) 2013-03-14 2013-03-14 사용자 기기 및 그 동작 방법

Publications (1)

Publication Number Publication Date
ES2925457T3 true ES2925457T3 (es) 2022-10-18

Family

ID=50287906

Family Applications (2)

Application Number Title Priority Date Filing Date
ES20195039T Active ES2925457T3 (es) 2013-03-14 2014-03-13 Dispositivo electrónico y procedimiento para el procesamiento de imágenes
ES19158666T Active ES2833542T3 (es) 2013-03-14 2014-03-13 Dispositivo electrónico y procedimiento de procesamiento de imágenes

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES19158666T Active ES2833542T3 (es) 2013-03-14 2014-03-13 Dispositivo electrónico y procedimiento de procesamiento de imágenes

Country Status (9)

Country Link
US (6) US9571736B2 (es)
EP (3) EP3512192B1 (es)
JP (2) JP6505967B2 (es)
KR (1) KR102063915B1 (es)
CN (2) CN109089044B (es)
AU (1) AU2014201586B2 (es)
ES (2) ES2925457T3 (es)
RU (1) RU2666130C2 (es)
WO (1) WO2014142604A1 (es)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015308B2 (en) * 2013-07-26 2018-07-03 Lg Electronics Inc. Mobile terminal and method of controlling the same
KR20150026393A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 이미지 처리 및 그 방법을 처리하는 전자장치
CN105847670B (zh) * 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
US9781393B2 (en) * 2015-03-27 2017-10-03 Olympus Corporation Imaging apparatus, control method of imaging apparatus, and non-transitory storage medium storing control program of imaging apparatus
JP2017059888A (ja) * 2015-09-14 2017-03-23 オリンパス株式会社 情報記録装置、情報記録方法及び情報記録プログラム
JP6532361B2 (ja) * 2015-09-16 2019-06-19 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US20190174069A1 (en) * 2016-03-18 2019-06-06 Kenneth L. Poindexter, JR. System and Method for Autonomously Recording a Visual Media
US10225471B2 (en) * 2016-03-18 2019-03-05 Kenneth L. Poindexter, JR. System and method for autonomously recording a visual media
US10009536B2 (en) 2016-06-12 2018-06-26 Apple Inc. Applying a simulated optical effect based on data received from multiple camera sensors
US9954706B1 (en) * 2016-10-28 2018-04-24 L3 Technologies Inc. Outphased spatial combiner
WO2018088794A2 (ko) * 2016-11-08 2018-05-17 삼성전자 주식회사 디바이스가 이미지를 보정하는 방법 및 그 디바이스
DK180859B1 (en) * 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
WO2018226264A1 (en) * 2017-06-04 2018-12-13 Apple Inc. User interface camera effects
US10742899B1 (en) 2017-08-30 2020-08-11 Snap Inc. Systems, devices, and methods for image enhancement
JP2019102889A (ja) * 2017-11-29 2019-06-24 株式会社デンソー カメラシステム
US10169680B1 (en) 2017-12-21 2019-01-01 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11500533B2 (en) * 2018-02-14 2022-11-15 Lg Electronics Inc. Mobile terminal for displaying a preview image to be captured by a camera and control method therefor
KR102499399B1 (ko) * 2018-03-20 2023-02-14 삼성전자주식회사 Isp 업데이트를 알리는 전자 장치 및 그 동작 방법
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
KR102597680B1 (ko) 2018-06-07 2023-11-03 삼성전자주식회사 맞춤형 화질 이미지를 제공하는 전자 장치 및 그 제어 방법
US10984399B2 (en) * 2018-07-31 2021-04-20 Snap Inc. Dynamically configurable social media platform
KR102558166B1 (ko) * 2018-08-08 2023-07-24 삼성전자주식회사 복수의 객체들을 포함하는 이미지를 보정하는 전자 장치 및 그 제어 방법
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
KR20200100918A (ko) 2019-02-19 2020-08-27 삼성전자주식회사 카메라를 이용하는 어플리케이션을 통해 다양한 기능을 제공하는 전자 장치 및 그의 동작 방법
KR20200101206A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 가상 캐릭터 기반 촬영 모드를 제공하는 전자 장치 및 이의 동작 방법
US11070717B2 (en) * 2019-04-23 2021-07-20 Adobe Inc. Context-aware image filtering
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11169675B1 (en) * 2019-06-28 2021-11-09 Snap Inc. Creator profile user interface
CN111064886B (zh) * 2019-12-19 2022-03-01 惠州Tcl移动通信有限公司 终端设备的拍摄方法、终端设备及存储介质
CN111093035B (zh) * 2019-12-31 2022-12-27 维沃移动通信有限公司 图像处理方法、电子设备及存储介质
US11451703B2 (en) * 2020-03-23 2022-09-20 Samsung Electronics Co.. Ltd. Method and system for customizing camera parameters
US11039074B1 (en) 2020-06-01 2021-06-15 Apple Inc. User interfaces for managing media
JP2022026848A (ja) * 2020-07-31 2022-02-10 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
WO2023021759A1 (ja) * 2021-08-17 2023-02-23 ソニーグループ株式会社 情報処理装置、情報処理方法
CN113747240B (zh) * 2021-09-10 2023-04-07 荣耀终端有限公司 视频处理方法、设备和存储介质
JP2023111610A (ja) * 2022-01-31 2023-08-10 キヤノンメディカルシステムズ株式会社 医用画像診断装置

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3786242B2 (ja) * 1997-07-14 2006-06-14 富士写真フイルム株式会社 画像処理方法および装置、画像再生方法および装置並びにその方法に使用する画像確認装置
JP2000331181A (ja) * 1999-05-17 2000-11-30 Fuji Photo Film Co Ltd 画像処理方法
US20010043279A1 (en) * 2000-03-07 2001-11-22 Masahito Niikawa Digital camera
JP4511066B2 (ja) * 2001-03-12 2010-07-28 オリンパス株式会社 撮像装置
JP2003134520A (ja) * 2001-10-19 2003-05-09 Minolta Co Ltd デジタルカメラ
EP1629367A4 (en) * 2003-05-16 2008-04-23 Microsoft Corp FILE SYSTEM SHELL
JP4396332B2 (ja) * 2004-03-10 2010-01-13 セイコーエプソン株式会社 ディジタルカメラ
KR101063405B1 (ko) * 2004-06-29 2011-09-07 삼성전자주식회사 특수효과 처리 화면 분할 디스플레이 기능을 갖는 휴대용영상 기록/재생 장치 및 그 분할 디스플레이 방법
JP2006048537A (ja) 2004-08-06 2006-02-16 Canon Inc 印刷システム及び印刷処理方法
WO2006028108A1 (ja) * 2004-09-07 2006-03-16 Nec Corporation 画像処理システム及びその方法と、それに用いられる端末及びサーバ
KR101058011B1 (ko) * 2004-10-01 2011-08-19 삼성전자주식회사 터치 스크린을 이용한 디지털 카메라 조작 방법
JP2006238076A (ja) * 2005-02-25 2006-09-07 Fuji Photo Film Co Ltd 撮影装置
US8085318B2 (en) * 2005-10-11 2011-12-27 Apple Inc. Real-time image capture and manipulation based on streaming data
KR101156676B1 (ko) 2005-08-04 2012-06-14 삼성전자주식회사 디지털 영상 처리 방법
JP4288612B2 (ja) * 2005-09-14 2009-07-01 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP4840848B2 (ja) * 2005-09-21 2011-12-21 ソニー株式会社 撮影装置、情報処理方法、並びにプログラム
JP4926494B2 (ja) 2006-02-20 2012-05-09 キヤノン株式会社 画像処理装置及び制御方法
JP2007316452A (ja) * 2006-05-26 2007-12-06 Omron Corp 観察装置および観察装置の画面表示方法
DE102006027025A1 (de) 2006-06-08 2007-12-13 Merck Patent Gmbh Silberweiße-Effektpigmente
JP4725452B2 (ja) * 2006-08-04 2011-07-13 株式会社ニコン デジタルカメラ及び画像処理プログラム
KR100816442B1 (ko) 2006-08-17 2008-03-27 에스케이 텔레콤주식회사 화상통화에 영상 효과 서비스를 제공하는 방법 및 시스템
KR100896711B1 (ko) * 2007-02-08 2009-05-11 삼성전자주식회사 터치 스크린을 갖는 휴대 단말기의 탭을 통한 기능 실행방법
JP4930302B2 (ja) * 2007-09-14 2012-05-16 ソニー株式会社 撮像装置、その制御方法およびプログラム
JP5083090B2 (ja) 2007-09-18 2012-11-28 ソニー株式会社 表示制御装置、撮像装置、表示制御方法およびプログラム
KR100924689B1 (ko) 2007-12-17 2009-11-03 한국전자통신연구원 모바일 기기의 이미지 변환 장치 및 방법
JP2009181501A (ja) * 2008-01-31 2009-08-13 Toshiba Corp 移動通信機器
US20090319897A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Enhanced user interface for editing images
US8214766B1 (en) * 2008-07-09 2012-07-03 Adobe Systems Incorporated Method and system for preview control for image adjustment
JP4534176B2 (ja) * 2008-07-22 2010-09-01 富士フイルム株式会社 電子カメラ
US8310594B2 (en) * 2008-07-22 2012-11-13 Samsung Electronics Co., Ltd. Method and system for picture-based user interface for adjusting picture display parameter settings of a display device
US8072505B2 (en) * 2008-07-23 2011-12-06 Victor Company Of Japan, Ltd. Imaging apparatus
JP4752900B2 (ja) 2008-11-19 2011-08-17 ソニー株式会社 画像処理装置、画像表示方法および画像表示プログラム
JP5412133B2 (ja) * 2009-02-20 2014-02-12 オリンパスイメージング株式会社 再生装置および再生方法
KR101595254B1 (ko) * 2009-02-20 2016-02-18 삼성전자주식회사 화이트 밸런스 조정 방법, 상기 방법을 기록한 기록 매체, 화이트 밸런스 조정 장치
JP5533859B2 (ja) 2009-04-13 2014-06-25 日本電気株式会社 データ処理装置、そのコンピュータプログラムおよびデータ処理方法
US8806331B2 (en) 2009-07-20 2014-08-12 Interactive Memories, Inc. System and methods for creating and editing photo-based projects on a digital network
US8379130B2 (en) * 2009-08-07 2013-02-19 Qualcomm Incorporated Apparatus and method of processing images based on an adjusted value of an image processing parameter
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
JP5402409B2 (ja) * 2009-08-31 2014-01-29 ソニー株式会社 撮影条件設定装置、撮影条件設定方法及び撮影条件設定プログラム
JP5218353B2 (ja) * 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP5457217B2 (ja) * 2010-02-02 2014-04-02 オリンパスイメージング株式会社 カメラ
JP5051258B2 (ja) * 2010-03-16 2012-10-17 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置及び同装置の表示制御方法並びに表示制御プログラム
US8810691B2 (en) * 2010-09-03 2014-08-19 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable recording medium
JP2012059061A (ja) * 2010-09-09 2012-03-22 Hitachi Solutions Ltd データ処理装置、データ処理方法及びプログラム
JP5748436B2 (ja) * 2010-09-10 2015-07-15 キヤノン株式会社 撮像装置及びその制御方法
JP5160604B2 (ja) 2010-09-14 2013-03-13 任天堂株式会社 表示制御プログラム、表示制御システム、表示制御装置、表示制御方法
KR101657122B1 (ko) 2010-09-15 2016-09-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101700366B1 (ko) * 2010-10-01 2017-02-13 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US8687091B2 (en) * 2010-11-03 2014-04-01 Canon Kabushiki Kaisha Image capturing systems and methods utilizing customizable look management
JP2012124608A (ja) * 2010-12-06 2012-06-28 Olympus Imaging Corp カメラ
JP5678631B2 (ja) * 2010-12-10 2015-03-04 ソニー株式会社 電子機器、電子機器の制御方法およびプログラム
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
US8717381B2 (en) * 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
JP5136669B2 (ja) * 2011-03-18 2013-02-06 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR20120119794A (ko) * 2011-04-22 2012-10-31 삼성전자주식회사 특수 효과들을 사용한 촬영 방법 및 장치
JP2012249175A (ja) 2011-05-30 2012-12-13 Olympus Imaging Corp 撮像装置、表示方法およびプログラム
JP5806512B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
US9019400B2 (en) * 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium
JP5806513B2 (ja) * 2011-05-31 2015-11-10 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
JP5855862B2 (ja) * 2011-07-07 2016-02-09 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP2013021548A (ja) * 2011-07-12 2013-01-31 Olympus Imaging Corp 撮像装置、画像再生装置及びプログラム
WO2013039025A1 (ja) 2011-09-16 2013-03-21 Necカシオモバイルコミュニケーションズ株式会社 情報管理編集機能を備えた情報処理装置
KR101817653B1 (ko) * 2011-09-30 2018-01-12 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
US8957982B2 (en) * 2011-10-04 2015-02-17 Olympus Imaging Corp. Imaging device and imaging method
JP5872834B2 (ja) * 2011-10-06 2016-03-01 オリンパス株式会社 撮像装置、撮像方法および撮像プログラム
WO2013051259A1 (ja) 2011-10-07 2013-04-11 パナソニック株式会社 撮影装置及び撮影方法
JP5936183B2 (ja) * 2012-02-07 2016-06-15 オリンパス株式会社 撮影機器
CN104247392A (zh) * 2012-03-06 2014-12-24 苹果公司 用于媒体编辑应用程序的扇形用户界面控件
JP5970937B2 (ja) * 2012-04-25 2016-08-17 ソニー株式会社 表示制御装置および表示制御方法
CN104322050B (zh) * 2012-05-22 2020-04-28 株式会社尼康 电子相机、图像显示装置和记录介质
JP6004756B2 (ja) * 2012-06-07 2016-10-12 キヤノン株式会社 表示制御装置及びその制御方法
JP5956836B2 (ja) * 2012-06-08 2016-07-27 キヤノン株式会社 撮像装置および表示制御方法、プログラム
JP2013254432A (ja) * 2012-06-08 2013-12-19 Canon Inc 画像処理装置及び画像処理方法
JP5977132B2 (ja) 2012-09-28 2016-08-24 富士ゼロックス株式会社 表示制御装置、画像表示装置、およびプログラム
CN103777852B (zh) * 2012-10-18 2018-10-02 腾讯科技(深圳)有限公司 一种获取图像的方法、装置
KR101890137B1 (ko) * 2012-10-25 2018-08-21 삼성전자주식회사 촬영 장치 및 제어 방법
JP6270325B2 (ja) 2013-03-15 2018-01-31 キヤノン株式会社 情報処理装置およびその制御方法
KR102092330B1 (ko) * 2013-06-20 2020-03-23 삼성전자주식회사 촬영 제어 방법 및 그 전자 장치
US20150227166A1 (en) * 2014-02-13 2015-08-13 Samsung Electronics Co., Ltd. User terminal device and displaying method thereof

Also Published As

Publication number Publication date
US10506176B2 (en) 2019-12-10
CN104050621A (zh) 2014-09-17
US10841511B1 (en) 2020-11-17
EP2779630A2 (en) 2014-09-17
KR102063915B1 (ko) 2020-01-08
CN109089044B (zh) 2022-03-11
JP6868659B2 (ja) 2021-05-12
RU2015138989A (ru) 2017-03-16
EP3771200B1 (en) 2022-04-27
JP2019109944A (ja) 2019-07-04
JP2014179969A (ja) 2014-09-25
CN104050621B (zh) 2018-10-12
US10841510B2 (en) 2020-11-17
US20170244907A1 (en) 2017-08-24
EP3512192A1 (en) 2019-07-17
WO2014142604A1 (en) 2014-09-18
JP6505967B2 (ja) 2019-04-24
US9674462B2 (en) 2017-06-06
EP3512192B1 (en) 2020-09-16
US20200112689A1 (en) 2020-04-09
US10284788B2 (en) 2019-05-07
KR20140112915A (ko) 2014-09-24
US20170085809A1 (en) 2017-03-23
CN109089044A (zh) 2018-12-25
AU2014201586B2 (en) 2019-07-11
US9571736B2 (en) 2017-02-14
EP2779630A3 (en) 2014-10-22
US20140267867A1 (en) 2014-09-18
EP3771200A1 (en) 2021-01-27
US20190260946A1 (en) 2019-08-22
RU2666130C2 (ru) 2018-09-06
US20200344424A1 (en) 2020-10-29
ES2833542T3 (es) 2021-06-15
AU2014201586A1 (en) 2014-10-02

Similar Documents

Publication Publication Date Title
ES2925457T3 (es) Dispositivo electrónico y procedimiento para el procesamiento de imágenes
US10452333B2 (en) User terminal device providing user interaction and method therefor
AU2014201995B2 (en) Objects in screen images
TWI643121B (zh) 物件顯示的方法以及終端設備
US10599336B2 (en) Method of displaying content and electronic device adapted to the same
US20140232743A1 (en) Method of synthesizing images photographed by portable terminal, machine-readable storage medium, and portable terminal
US20150339090A1 (en) Sharing a screen between electronic devices
KR102534714B1 (ko) 노트와 연관된 사용자 인터페이스 제공 방법 및 이를 구현한 전자 장치
US9430806B2 (en) Electronic device and method of operating the same
KR102102959B1 (ko) 사용자 기기 및 그 동작 방법
KR102109915B1 (ko) 사용자 기기 및 그 동작 방법