ES2819868T3 - Método y aparato para generar imagen sintética - Google Patents

Método y aparato para generar imagen sintética Download PDF

Info

Publication number
ES2819868T3
ES2819868T3 ES16771291T ES16771291T ES2819868T3 ES 2819868 T3 ES2819868 T3 ES 2819868T3 ES 16771291 T ES16771291 T ES 16771291T ES 16771291 T ES16771291 T ES 16771291T ES 2819868 T3 ES2819868 T3 ES 2819868T3
Authority
ES
Spain
Prior art keywords
sub
foreground
image
region
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16771291T
Other languages
English (en)
Inventor
Yu Zhang
Zhijun Du
Nan Wang
Wei Ding
Qiang He
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Original Assignee
Advanced New Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced New Technologies Co Ltd filed Critical Advanced New Technologies Co Ltd
Application granted granted Critical
Publication of ES2819868T3 publication Critical patent/ES2819868T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/106Display of layout of documents; Previewing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

Un método realizado por un dispositivo informático para generar imágenes sintetizadas que incluyen elementos de primer plano, el método que comprende: determinar (110), en base a una selección aleatoria de un conjunto de imágenes de fondo, una imagen de fondo para una imagen sintetizada a partir de las imágenes sintetizadas, en donde la imagen sintetizada incluye los elementos de primer plano, y en donde la imagen de fondo se usa en menos de un número predeterminado de las imágenes sintetizadas; dividir (120) subregiones dinámicamente para los elementos de primer plano en la imagen de fondo, cada subregión se usa para visualizar al menos uno de los elementos de primer plano, en donde un archivo de configuración incluye condiciones de limitación para dividir las subregiones en la imagen de fondo, en donde el archivo de configuración comprende varias subregiones y una relación de posición de al menos algunas de las subregiones, generar automáticamente un primer diseño de subregiones para posicionar las subregiones en la imagen de fondo, en donde una posición específica de cada una de las subregiones se genera mediante una primera ejecución de un algoritmo de diseño usando el archivo de configuración, en donde una segunda ejecución del algoritmo de diseño genera un diseño de subregión diferente para posicionar las subregiones; determinar dinámicamente (130), dentro de cada una de las subregiones, una forma de visualización respectiva de un elemento de primer plano de la subregión; y dibujar (140), de acuerdo con la forma de visualización respectiva, cada elemento de primer plano correspondiente dentro de cada forma de visualización respectiva dentro de cada subregión respectiva.

Description

DESCRIPCIÓN
Método y aparato para generar imagen sintética
Campo técnico
La presente solicitud se refiere al campo técnico del procesamiento de imágenes y, en particular, a un método y aparato para generar una imagen sintetizada.
Técnica Anterior
Las actividades de promoción basadas en Internet suelen consistir en presentar o difundir imágenes en páginas web y plataformas de redes sociales. Usar siempre la misma imagen puede provocar fatiga psicológica del usuario y, para lograr un mejor efecto, las imágenes presentadas deben cambiarse con frecuencia.
Las imágenes utilizadas para las actividades de promoción suelen ser imágenes generadas sintetizando una imagen de fondo y elementos de primer plano. En la técnica anterior, se utiliza normalmente un método de plantilla única para sintetizar una imagen de fondo y elementos de primer plano en una imagen, es decir, dibujar los elementos de primer plano en una imagen de fondo fija en posiciones fijas. Cambiar la imagen requiere que el diseñador de arte regenere una plantilla, o modifique la imagen de fondo, o modifique los elementos de primer plano, lo que consume mucho tiempo y tiene una baja eficiencia, y apenas satisface el requisito de generar una gran cantidad de imágenes sintetizadas dentro de un poco tiempo en algunas actividades de promoción.
La publicación de patente WO 2008/133357 A1, para " Photo Synthesis Service System and Method", publicada el 6 de noviembre de 2008, describe un sistema de servicio de síntesis de imágenes, en el que si un usuario selecciona una imagen de una atracción turística proporcionada en línea y carga una imagen del usuario mismo, la imagen cargada se sintetiza con la imagen seleccionada de la atracción turística para proporcionar una imagen sintetizada deseada.
La publicación de patente GB 2 378 340 A, para "Generation of an image bounded by a frame or of overlapping images", publicada el 5 de febrero de 2003, describe un método de análisis de una imagen de acuerdo con una regla de composición, en particular una que identifica áreas "debe incluir", y áreas "debe excluir", se utiliza para seleccionar un límite de imagen que se ajusta mejor a la imagen, en particular, que excluye la mayoría de las regiones "debe excluir". El límite de la imagen puede seleccionarse entre una pluralidad de formas geométricas, que el usuario puede definir o modificar. También se describe un método para insertar imágenes recortadas en una disposición predefinida de límites de imagen.
Resumen de la invención
En vista de esto, la presente solicitud describe un método ilustrativo para generar una imagen sintetizada, que comprende:
determinar, basándose en un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada; dividir subregiones para elementos de primer plano en la imagen de fondo, utilizándose cada subregión para visualizar al menos un elemento de primer plano;
determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y
dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión.
La presente solicitud describe además un aparato de ejemplo para generar una imagen sintetizada, que comprende:
una unidad de determinación de imagen de fondo, configurada para determinar, basándose en un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada;
una unidad de división de subregiones, configurada para dividir subregiones para elementos de primer plano en la imagen de fondo, utilizándose cada subregión para visualizar al menos un elemento de primer plano; una unidad de determinación de la forma de visualización, configurada para determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y
una unidad de dibujo de elementos de primer plano, configurada para dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión.
El alcance de la invención se define en las reivindicaciones.
Puede verse en la solución de la técnica anterior que en las realizaciones de la presente solicitud, al seleccionar una imagen de fondo y generar subregiones dinámicamente y visualizar formas de elementos de primer plano, una gran cantidad de imágenes sintetizadas, que tienen imágenes de fondo variables, diseños de regiones variables y las formas de visualización de elementos de primer plano variables se pueden generar automáticamente en poco tiempo, lo que mejora la eficiencia de la generación de imágenes sintetizadas.
Breve descripción de los dibujos acompañantes
La Figura 1 es un diagrama de flujo de un método para generar una imagen sintetizada en una realización de la presente solicitud;
La Figura 2 es un diagrama de diseño de subregiones en un ejemplo de la presente solicitud;
La Figura 3 es otro diagrama de diseño de subregiones en un ejemplo de la presente solicitud;
La Figura 4 es un diagrama esquemático de una forma de visualización de una línea de texto en un ejemplo de la presente solicitud;
La Figura 5 es un diagrama esquemático de una forma de visualización de una imagen de primer plano en un ejemplo de la presente solicitud;
La Figura 6 es un diagrama de estructura de hardware de un dispositivo informático que aplica una realización de la presente solicitud; y
La Figura 7 es un diagrama de estructura lógica de un aparato para generar una imagen sintetizada en una realización de la presente solicitud.
Descripción Detallada
Las realizaciones de la presente solicitud proponen un método novedoso para generar una imagen sintetizada, en el que se aplica una imagen de fondo cambiada automáticamente y diseños y posiciones de elementos de primer plano cambiados automáticamente para generar una imagen sintetizada, y se pueden generar una gran cantidad de imágenes sintetizadas diferentes en poco tiempo, con el fin de solucionar el problema existente en la técnica anterior. El procedimiento de las realizaciones de la presente solicitud es como se muestra en la Figura 1.
Etapa 110, determinar, basándose en un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada.
Generalmente, una imagen sintetizada comprende una imagen de fondo que tiene una región relativamente grande y no está cubierta por elementos de primer plano. Cuanto mayor sea la región de la imagen de fondo que no está cubierta por los elementos de primer plano, más fácil será utilizar los parámetros generados de acuerdo con la imagen de fondo para reconocer la imagen sintetizada. La imagen de fondo variable puede aumentar la dificultad de reconocimiento de la imagen sintetizada. En esta realización, se preestablece un conjunto de imágenes de fondo, que comprende al menos una imagen de fondo. Se selecciona una imagen de fondo del conjunto de imágenes de fondo y se genera una imagen de fondo de la imagen sintetizada de acuerdo con la imagen de fondo seleccionada.
Se pueden utilizar varios métodos para seleccionar una imagen de fondo del conjunto de imágenes de fondo. Por ejemplo, cada imagen de fondo en el conjunto de imágenes de fondo puede seleccionarse a su vez, o puede seleccionarse una imagen de fondo al azar del conjunto de imágenes de fondo; y se puede volver a seleccionar una imagen de fondo cuando el número de uso de la imagen sintetizada alcanza un cierto valor predeterminado, y también se puede volver a seleccionar una imagen de fondo tomando un cierto tiempo como período.
De manera similar, también se pueden usar varios métodos para generar la imagen de fondo de la imagen sintetizada de acuerdo con la imagen de fondo seleccionada. Por ejemplo, la imagen de fondo seleccionada puede usarse directamente como imagen de fondo de la imagen sintetizada, o la imagen de fondo seleccionada puede usarse como imagen de fondo de la imagen sintetizada después de haber sido sometida a un procesamiento especial (como procesamiento de desenfoque gaussiano, luz procesamiento de tratamiento o procesamiento de máscara). Se pueden usar un algoritmo y parámetros fijos para realizar un procesamiento especial, y también se pueden usar un algoritmo y/o parámetros cambiados aleatoria o periódicamente para realizar un procesamiento especial.
El método para seleccionar la imagen de fondo y el método para generar la imagen de fondo de la imagen sintetizada se pueden usar en cualquier combinación, y esto no está limitado en esta realización.
Etapa 120, dividir subregiones para elementos de primer plano en la imagen de fondo, usándose cada subregión para visualizar al menos un elemento de primer plano.
El método para dividir subregiones en la imagen de fondo se puede determinar de acuerdo con la relación entre los elementos de primer plano de varias subregiones y el requisito de un escenario de aplicación real. Si todos los elementos de primer plano pueden visualizarse arbitrariamente en cualquier posición de la imagen de fondo, entonces, de acuerdo con el número de elementos de primer plano, se puede generar un número correspondiente de subregiones y la posición y el tamaño de cada subregión se determina aleatoriamente. Si la visualización de todos o algunos de los elementos de primer plano necesita satisfacer una determinada condición (como una determinada relación de posición o una determinada relación de proporción de tamaño), entonces los elementos de primer plano asociados pueden visualizarse dentro de la misma subregión, o una condición de limitación correspondiente se puede aplicar a la división de varias subregiones que muestran elementos asociados en primer plano.
En una implementación, se puede preestablecer un archivo de configuración, y en el archivo de configuración se describe una condición de limitación para dividir subregiones, para satisfacer los requisitos de visualización de los elementos de primer plano. El archivo de configuración comprende el número de subregiones y una relación de posición de al menos algunas de las subregiones, y la posición específica de cada subregión se genera automáticamente mediante un algoritmo de diseño que usa el archivo de configuración. Específicamente, después de obtener la relación de número y posición de las subregiones del archivo de configuración, se calcula una región donde se permite un cambio dinámico para cada subregión en la imagen de fondo de acuerdo con la relación de posición, y el tamaño y las posiciones de los vértices de la subregión se determina dentro de la región donde se permite un cambio dinámico. El algoritmo de diseño específico puede referirse a la implementación de la técnica anterior y ya no se describirá más. El archivo de configuración puede comprender además un valor máximo y/o valor mínimo de la forma y el tamaño de una subregión, etc., y en este momento, la forma y el tamaño de la subregión y su relación de posición con otras subregiones deben tenerse en cuenta para asignar una región en la que se permita un cambio dinámico para cada subregión. Dentro de la región donde se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión pueden determinarse arbitrariamente bajo la condición de satisfacer el archivo de configuración.
Por ejemplo, se designa en el archivo de configuración que tres subregiones se dividen y se organizan como una subregión I, una subregión II y una subregión III sucesivamente de arriba a abajo, luego una cierta ejecución de un algoritmo de diseño genera un diseño de subregión como se muestra en la Figura 2, y otra ejecución del algoritmo de diseño genera un diseño de subregión como se muestra en la Figura 3.
Volviendo a la Figura 1, en la etapa 130, determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión.
El elemento de primer plano puede ser una imagen de primer plano y también puede ser una línea de texto; y la línea de texto puede ser una o más unidades de texto, en donde la unidad de texto es una parte constituyente de la línea de texto, que puede ser una palabra (como una palabra china y una palabra inglesa), una letra, un número y/o símbolo, y también puede ser una combinación de dos o tres de la palabra, letra y número.
Dentro de la subregión, se pueden usar diferentes formas para visualizar el elemento de primer plano de la subregión (es decir, el elemento de primer plano visualizado dentro de la subregión). Por ejemplo, se puede proporcionar un conjunto que comprende formas de la forma original, una forma circular, una forma cuadrada, etc., y se selecciona una de ellas al azar o sucesivamente como la forma de visualización del elemento de primer plano; y en este método de implementación, si el elemento de primer plano es una línea de texto, cada texto puede visualizarse en la forma seleccionada y los textos también pueden disponerse en la forma seleccionada.
En otra implementación, se preestablecen varias funciones de curva; y los rangos de valores de los parámetros en las funciones de curva preestablecidas están preestablecidos, y los rangos preestablecidos de los parámetros pueden variar con las diferentes funciones de curva aplicables, y el rango preestablecido debe habilitar la curva de visualización, generada después el parámetro se aplica a la función de curva, para ubicarse parcialmente dentro de la subregión.
Si el elemento de primer plano que usa la curva de visualización es una línea de texto, se puede seleccionar una función de curva entre varias funciones de curva preestablecidas; los parámetros de la función de curva se determinan dentro del rango preestablecido y se genera una curva de visualización; y de acuerdo con el número de unidades de texto en la línea de texto, se extrae un número correspondiente de puntos de la curva de visualización como posiciones de vértice de las unidades de texto. Por ejemplo, con respecto a la línea de texto, que incluye seis caracteres chinos, que utiliza la curva de visualización como se muestra en la Figura 4, la parte de la curva de visualización, cuyas coordenadas horizontales se encuentran dentro de la subregión, puede ser igualmente dividido en seis partes, tomando el punto de inicio de cada parte igual como la coordenada horizontal, y tomando el punto cuya coordenada horizontal está en la curva de visualización como una posición de vértice de cada carácter chino. De esta manera, la línea de texto se visualizará como la forma de la curva de visualización, consulte la Figura 4.
Si el elemento de primer plano que usa la curva de visualización es una imagen de primer plano, se puede seleccionar al menos una función de curva entre las funciones de curva preestablecidas; los parámetros de la función de curva seleccionada se determinan dentro de un rango preestablecido y se genera al menos una curva de visualización; y los puntos se extraen de la curva de visualización como posiciones de vértice de la imagen de primer plano, y la curva de visualización generada se toma como límite de visualización de la imagen de primer plano. Por ejemplo, se puede seleccionar una función de curva y se generan dos curvas de visualización paralelas con diferentes parámetros para servir respectivamente como límites superior e inferior (o límites izquierdo y derecho) de la imagen de primer plano, mientras que las líneas rectas son paralelas al eje vertical (o eje horizontal) donde se encuentran los dos puntos extraídos respectivamente, sirven como límites izquierdo y derecho (o límites superior e inferior) de la imagen de primer plano; y también se pueden seleccionar dos funciones de curva para generar dos curvas de visualización intersecadas que sirvan respectivamente como límite superior y límite izquierdo de la imagen de primer plano, mientras que un límite inferior y un límite derecho de la imagen de primer plano utilizan el límite inferior y el límite derecho de la subregión, y en este momento, el punto de intersección de las dos curvas de visualización sirve como la posición del vértice extraído.
En algunos escenarios de aplicación, después de que la imagen de primer plano se ha dibujado en la imagen de fondo, la línea de texto se dibuja en la imagen de primer plano. En este caso, la forma de visualización de la línea de texto se determina en la imagen de primer plano que muestra la línea de texto. En otras palabras, se puede considerar que toma la imagen de primer plano que muestra la línea de texto como una subregión cuando se determina la forma de visualización de la línea de texto.
Etapa 140, dibujar, de acuerdo con la forma de visualización del elemento de primer plano, el elemento de primer plano correspondiente dentro de la subregión.
Con respecto a la imagen de primer plano, si la forma de visualización es diferente de la forma o tamaño original de la imagen de primer plano, luego de la transformación afín, la transformación de perspectiva y/o la transformación de escala se realizan en la imagen de primer plano de acuerdo con la forma de visualización determinada, el elemento de primer plano se puede dibujar dentro de la subregión. Además, el procesamiento de transformación de color, rotación, estiramiento, etc. también se puede realizar en la imagen de primer plano. Esta realización no limita el método de procesamiento de transformación específico.
Con respecto a la línea de texto, para reducir la utilización de un algoritmo de detección de texto para localizar una región de texto, se usa un método OCR (reconocimiento óptico de caracteres) para segmentar y reconocer el texto; se utiliza una palabra clave en el texto para proteger la posibilidad de una imagen; y después de añadir textura y/o deformación a cada texto de acuerdo con la forma de visualización determinada, la línea de texto se puede dibujar dentro de la subregión. La deformación puede ser operaciones de rotación y estiramiento, etc. respecto a una unidad de texto; la textura puede ser franjas horizontales y verticales a diferentes intervalos, y también puede ser varias franjas curvas; y en una región donde el texto y las franjas se superponen, se puede visualizar una imagen de fondo y también se puede visualizar una cierta fusión de color del texto de primer plano y la imagen de fondo. Esta realización no limita el método de procesamiento específico.
Se puede ver que en las realizaciones de la presente solicitud, al seleccionar una imagen de fondo y generar dinámicamente subregiones y formas de visualización de elementos de primer plano, un gran número de imágenes sintetizadas que tienen imágenes de fondo variables, diseños de regiones variables y primer plano variable las formas de los elementos se pueden generar en poco tiempo, lo que mejora la eficiencia de generar imágenes sintetizadas y reduce los costos de diversificación de imágenes al mismo tiempo.
Debe tenerse en cuenta que el método en esta realización se puede aplicar a cualquier dispositivo informático, como un servidor, una máquina virtual, un ordenador personal, una tableta, un teléfono móvil y otros dispositivos. En una aplicación de un modo cliente/servidor (C/S), el método en esta realización se puede aplicar parcialmente al servidor y parcialmente al cliente, y el servidor y el cliente realizan de forma colaborativa la generación de la imagen sintetizada.
En un ejemplo de aplicación de la presente solicitud, la imagen sintetizada se genera mediante una imagen de fondo, una imagen de primer plano y una línea de texto. Los materiales para sintetizar una imagen se almacenan en un servidor, que comprende un conjunto de imágenes de fondo compuesto por una pluralidad de imágenes de fondo, varias imágenes de primer plano y varias líneas de texto, etc., en donde la imagen de primer plano comprende una imagen cuya posición puede ser dinámicamente cambiado en la imagen de fondo, como un logotipo; y la línea de texto puede generar cada unidad de texto en una imagen y un orden de visualización de estas imágenes, y también puede ser texto que se convierte en una imagen usando una biblioteca de caracteres del sistema cuando se dibuja la línea de texto. Además, un archivo de configuración para dividir subregiones en la imagen de fondo, una pluralidad de funciones de curva para determinar una forma de visualización de un elemento de primer plano, e información tal como rangos de valores preestablecidos de parámetros del mismo están preestablecidos en el servidor.
Cuando el servidor necesita generar una imagen sintetizada (como recibir una solicitud del cliente para adquirir una imagen sintetizada, llegar a un período de cambio de la imagen sintetizada, etc.), se selecciona aleatoriamente una imagen de fondo del conjunto de imágenes de fondo, y se utiliza como imagen de fondo de la imagen sintetizada después de que se realiza el procesamiento de desenfoque gaussiano en la imagen de fondo con parámetros seleccionados al azar. Diferentes parámetros pueden permitir que la misma imagen de fondo presente imágenes con diferente información de características, lo que reduce efectivamente las características comunes de las imágenes de fondo y mantiene el estilo artístico al mismo tiempo.
Después de que se determina la imagen de fondo, se llama a un algoritmo de diseño para calcular, de acuerdo con una relación de posición entre subregiones y el rango del tamaño de cada subregión en el archivo de configuración, una región donde se permite un cambio dinámico para cada subregión, y las posiciones de los vértices y el tamaño real (dentro del rango del tamaño en el archivo de configuración) de la subregión se deciden al azar dentro de la región donde se permite un cambio dinámico. Por tanto, se dividen dinámicamente varias subregiones para visualizar la imagen de primer plano y/o la línea de texto, para decidir la posición en la imagen de fondo donde se coloca un elemento de primer plano a presentar. La imagen de fondo completa determina el estilo general de la imagen sintetizada, y la posición y el tamaño de cada subregión determina la configuración de tipo de la imagen sintetizada.
El elemento de primer plano de cada subregión puede ser una línea de texto, puede ser una o más imágenes de primer plano y también puede ser una combinación de una línea de texto y una imagen de primer plano. Cuando el elemento de primer plano se dibuja en la subregión, con respecto a la línea de texto, se selecciona aleatoriamente una función de curva de una pluralidad de funciones de curva almacenadas, los valores de los parámetros se determinan aleatoriamente dentro de los rangos de valores de los parámetros de la función de curva, y los valores de los parámetros se aplican a la función de curva para generar una curva de visualización. Extrayendo coordenadas de puntos de la curva de visualización, se pueden obtener las coordenadas del vértice de cada unidad de texto en la línea de texto. En función de la coordenada del vértice de cada unidad de texto, después de realizar la deformación y el procesamiento de textura, etc. en la unidad de texto, se dibuja en la posición correspondiente en la imagen de fondo con un tamaño determinado.
Con respecto a la imagen de primer plano, se selecciona aleatoriamente una función de curva de una pluralidad de funciones de curva almacenadas, los valores de los parámetros se determinan aleatoriamente dentro de los rangos de valores de los parámetros de la función de curva y los valores de los parámetros se aplican a la función de curva para generar una primera curva de visualización; la curva de visualización se traslada una cierta distancia para servir como una segunda curva de visualización (o generar una segunda curva de visualización con otro valor de parámetro), y se extraen dos puntos de la primera curva de visualización como dos posiciones de vértice de la imagen de primer plano; y los dos puntos se trasladan a la segunda curva de visualización para servir como otras dos posiciones de vértice de la imagen de primer plano, y la primera curva de visualización entre las dos posiciones de vértice y la segunda curva de visualización entre las otras dos posiciones de vértice sirven como dos límites de visualización de la imagen de primer plano. Por ejemplo, como se muestra en la Figura 5, la parte sombreada es la forma de visualización de la imagen de primer plano, y el límite superior y el límite inferior de la parte sombreada son respectivamente curvas de visualización. Una vez determinada la forma de visualización de la imagen de primer plano, se realiza el procesamiento de deformación en la imagen de primer plano de acuerdo con la forma de visualización y la imagen de primer plano se dibuja en una posición correspondiente en la imagen de fondo.
Después de los pasos anteriores, se pueden generar imágenes sintetizadas con imágenes de fondo variables, diseños variables y formas de elementos de primer plano variables y formas de presentación.
En correspondencia con el procedimiento anterior, las realizaciones de la presente solicitud proporcionan además un aparato para generar una imagen sintetizada. El aparato puede implementarse usando software y también puede implementarse usando hardware o una combinación de software y hardware. Tomando como ejemplo la implementación del software, como un aparato en el sentido lógico, está formado por una CPU (Unidad Central de Procesos) de un dispositivo informático donde se ubica para leer una instrucción del programa informático correspondiente en una memoria para su ejecución. Desde el nivel de hardware, además de la CPU, la memoria y la memoria no volátil que se muestran en la Figura 6, el dispositivo donde se ubica el aparato para generar una imagen sintetizada generalmente comprende además otro hardware, como una placa para implementar una función de comunicación de red, etc.
La Figura 7 muestra un aparato para generar una imagen sintetizada proporcionada por esta realización, que comprende una unidad de determinación de imagen de fondo, una unidad de división de subregiones, una unidad de determinación de forma de visualización y una unidad de dibujo de elementos de primer plano, en donde: la unidad de determinación de imagen de fondo se configura para determinar, en base a un conjunto de imágenes de fondo, una imagen de fondo de la imagen sintetizada; la unidad de división de subregiones se configura para dividir subregiones para elementos de primer plano en la imagen de fondo, usándose cada subregión para visualizar al menos un elemento de primer plano; la unidad de determinación de forma de visualización se configura para determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión; y la unidad de dibujo del elemento de primer plano se configura para dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión.
Opcionalmente, la unidad de división de subregiones puede comprender además un módulo de adquisición de relación de posición, un módulo de cálculo de región dinámica y un módulo de posición y tamaño de subregión, en donde: el módulo de adquisición de relación de posición se configura para adquirir, a partir de un archivo de configuración, el número de subregiones y una relación de posición de al menos algunas de las subregiones; el módulo de cálculo de la región dinámica se configura para calcular, de acuerdo con la relación de posición, una región en la que se permite un cambio dinámico para cada subregión en la imagen de fondo; y el módulo de tamaño y posición de la subregión se configura para determinar, dentro de la región donde se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión.
En una implementación, el elemento de primer plano comprende una imagen de primer plano; la unidad de determinación de la forma de visualización comprende un primer módulo de selección de función de curva, un primer módulo de generación de curva de visualización y un módulo de forma de imagen de primer plano, en donde: el primer módulo de selección de función de curva se configura para seleccionar al menos una función de curva de varias funciones de curva preestablecidas; el primer módulo de generación de curvas de visualización se configura para determinar los parámetros de la función de curva dentro de un rango preestablecido y generar al menos una curva de visualización; y el módulo de forma de imagen de primer plano se configura para extraer puntos de la curva de visualización como posiciones de vértice de la imagen de primer plano, y tomar la curva de visualización como un límite de visualización de la imagen de primer plano.
Opcionalmente, el elemento de primer plano comprende una imagen de primer plano; y la unidad de dibujo del elemento de primer plano se configura específicamente para: después de realizar, de acuerdo con la forma de visualización, transformación afín, transformación de perspectiva y/o transformación de escala en la imagen de primer plano, dibujar la misma dentro de la subregión.
Opcionalmente, el elemento de primer plano comprende una línea de texto; la unidad de determinación de forma de visualización comprende un segundo módulo de selección de función de curva, un segundo módulo de generación de curva de visualización y un módulo de forma de línea de texto, donde: el segundo módulo de selección de función de curva se configura para seleccionar una función de curva de varias funciones de curva preestablecidas; el segundo módulo de generación de curvas de visualización se configura para determinar los parámetros de la función de curva dentro de un rango preestablecido y generar una curva de visualización; y el módulo de forma de línea de texto se configura para extraer, de acuerdo con el número de unidades de texto en la línea de texto, un número correspondiente de puntos de la curva de visualización como posiciones de vértice de las unidades de texto.
Opcionalmente, la unidad de dibujo del elemento de primer plano se configura específicamente para: después de agregar, de acuerdo con la forma de visualización, textura y/o deformación a cada unidad de texto de la línea de texto, dibujar lo mismo dentro de la subregión.
Debe tenerse en cuenta que el aparato en las realizaciones de la presente solicitud puede estar disperso en dos o más dispositivos para su implementación, tal como dispersarse en un dispositivo cliente y un servidor para su implementación.
En una configuración típica, un dispositivo informático incluye uno o más procesadores (CPU), una interfaz de entrada/salida, una interfaz de red y una memoria.
La memoria puede incluir una memoria no permanente, una memoria de acceso aleatorio (RAM) y/o una memoria no volátil (como una memoria de solo lectura (ROM) o una memoria flash (flash RAM)) y así sucesivamente en medios legibles por ordenador. La memoria es un ejemplo de los medios legibles por ordenador.
Los medios legibles por ordenador comprenden medios permanentes y no permanentes, removibles y no removibles y pueden realizar el almacenamiento de información con cualquier método o tecnología. La información puede ser una instrucción legible por ordenador, estructura de datos, módulo de programa u otros datos. Los ejemplos de medios de almacenamiento informáticos incluyen, entre otros, una memoria de cambio de fase (PRAM), memoria de acceso aleatorio estática (SRAM), memoria de acceso aleatorio dinámico (DRAM), otros tipos de memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), memoria de solo lectura programable y borrable eléctricamente (EEPROM), memoria flash u otras tecnologías de memoria, memoria de solo lectura de disco compacto (CD-ROM), disco versátil digital (DVD) u otro almacenamiento óptico, cinta de casete magnética, almacenamiento en cinta y disco magnético u otros dispositivos de almacenamiento magnético o cualquier otro medio que no sea de transmisión, que se puede utilizar para almacenar información a la que se puede acceder mediante un dispositivo informático. De acuerdo con la definición en este documento, los medios legibles por ordenador no incluyen medios transitorios, tales como señales y portadoras de datos modulados.
También debe tenerse en cuenta que los términos "que incluye", "que comprende" o cualquier otra variación de los mismos están destinados a cubrir la inclusión no exhaustiva, de modo que los procesos, métodos, comerciantes o dispositivos que incluyen una serie de elementos no solo incluyen esos elementos sino también incluyen otros elementos que no se enumeran expresamente o incluyen todos los elementos inherentes de dichos procesos, métodos, comerciantes o dispositivos. Si no hay más limitaciones, los elementos definidos por "que comprenden un ...... " no excluyen la situación en la que existen otros elementos idénticos en el proceso, método, comerciante o dispositivo, incluidos los elementos.
Los expertos en la técnica deben entender que las realizaciones de la presente solicitud pueden proporcionarse como métodos, sistemas o productos de programas informáticos. Por tanto, la presente solicitud puede adoptar realizaciones de hardware completo, realizaciones de software completo o realizaciones que combinan software y hardware. Además, la presente solicitud puede estar en forma de un producto de programa informático que se implementa en uno o más medios de almacenamiento utilizables por ordenador (que incluyen, pero no se limitan a, una memoria de disco, un CD-ROM, una memoria óptica y similares) que incluyen códigos de programa utilizables por ordenador.

Claims (15)

  1. REIVINDICACIONES
    i. Un método realizado por un dispositivo informático para generar imágenes sintetizadas que incluyen elementos de primer plano, el método que comprende:
    determinar (110), en base a una selección aleatoria de un conjunto de imágenes de fondo, una imagen de fondo para una imagen sintetizada a partir de las imágenes sintetizadas, en donde la imagen sintetizada incluye los elementos de primer plano, y en donde la imagen de fondo se usa en menos de un número predeterminado de las imágenes sintetizadas; dividir (120) subregiones dinámicamente para los elementos de primer plano en la imagen de fondo, cada subregión se usa para visualizar al menos uno de los elementos de primer plano, en donde un archivo de configuración incluye condiciones de limitación para dividir las subregiones en la imagen de fondo, en donde el archivo de configuración comprende varias subregiones y una relación de posición de al menos algunas de las subregiones, generar automáticamente un primer diseño de subregiones para posicionar las subregiones en la imagen de fondo, en donde una posición específica de cada una de las subregiones se genera mediante una primera ejecución de un algoritmo de diseño usando el archivo de configuración, en donde una segunda ejecución del algoritmo de diseño genera un diseño de subregión diferente para posicionar las subregiones;
    determinar dinámicamente (130), dentro de cada una de las subregiones, una forma de visualización respectiva de un elemento de primer plano de la subregión; y
    dibujar (140), de acuerdo con la forma de visualización respectiva, cada elemento de primer plano correspondiente dentro de cada forma de visualización respectiva dentro de cada subregión respectiva.
  2. 2. El método de acuerdo con la reivindicación 1, caracterizado porque determinar, en base a un conjunto de imágenes de fondo, una imagen de fondo para la imagen sintetizada comprende:
    seleccionar una de varias imágenes de fondo; y
    después de realizar el procesamiento de desenfoque gaussiano, procesamiento de tratamiento de luz y/o procesamiento de máscara en la imagen de fondo seleccionada, tomar la imagen de fondo procesada como imagen de fondo para la imagen sintetizada.
  3. 3. El método de acuerdo con la reivindicación 1, caracterizado porque dividir las subregiones para elementos de primer plano en la imagen de fondo comprende:
    obtener, del archivo de configuración, el número de subregiones y la relación de posición de al menos algunas de las subregiones;
    calcular, de acuerdo con la relación de posición, una región donde se permite un cambio dinámico para cada subregión en la imagen de fondo, un cambio dinámico que es un cambio en la posición de un vértice o el tamaño de una subregión; y
    determinar, dentro de la región donde se permite un cambio dinámico, las posiciones de los vértices y el tamaño de la subregión bajo la condición de satisfacer el archivo de configuración.
  4. 4. El método de acuerdo con la reivindicación 3, en donde el archivo de configuración comprende un archivo preestablecido que describe las condiciones de limitación para dividir subregiones para los elementos de primer plano en la imagen de fondo.
  5. 5. El método de acuerdo con la reivindicación 4, en donde el archivo de configuración comprende además un valor máximo y/o un valor mínimo de la forma y tamaño de una subregión.
  6. 6. El método de acuerdo con la reivindicación 1, caracterizado porque el elemento de primer plano comprende una imagen de primer plano; y
    determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión comprende:
    seleccionar al menos una función de curva de varias funciones de curva preestablecidas; determinar los parámetros de la función de curva dentro de un rango preestablecido y generar al menos una curva de visualización; y
    extraer puntos de la curva de visualización como posiciones de vértice de la imagen de primer plano y tomar la curva de visualización como límite de visualización de la imagen de primer plano.
  7. 7. El método de acuerdo con cualquiera de las reivindicaciones 1 o 6, caracterizado porque el elemento de primer plano comprende una imagen de primer plano; y
    dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión comprende:
    después de realizar, de acuerdo con la forma de visualización, una transformación afín, una transformación de perspectiva y/o una transformación de escala en la imagen de primer plano, dibujar el elemento de primer plano transformado dentro de la subregión.
  8. 8. El método de acuerdo con la reivindicación 7, en donde la imagen de primer plano se dibuja dentro de la subregión después del procesamiento de transformación de color, rotación y/o estiramiento de la imagen de primer plano.
  9. 9. El método de acuerdo con la reivindicación 1, caracterizado porque el elemento de primer plano comprende una línea de texto; y
    determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión comprende:
    seleccionar una función de curva entre varias funciones de curva preestablecidas;
    determinar los parámetros de la función de curva dentro de un rango preestablecido y generar una curva de visualización; y
    extraer, de acuerdo con el número de unidades de texto en la línea de texto, un número correspondiente de puntos de la curva de visualización como posiciones de vértice de las unidades de texto.
  10. 10. El método de acuerdo con la reivindicación 8, caracterizado porque el elemento de primer plano comprende una línea de texto mostrada en la imagen de primer plano; y
    determinar, dentro de una subregión, una forma de visualización de un elemento de primer plano de la subregión comprende determinar, en la imagen de primer plano donde se visualiza la línea de texto, una forma de visualización de la línea de texto.
  11. 11. El método de acuerdo con cualquiera de las reivindicaciones 1,9 o 10, caracterizado porque dibujar, de acuerdo con la forma de visualización, el elemento de primer plano correspondiente dentro de la subregión comprende añadir, de acuerdo con la forma de visualización, textura y/o deformación a cada unidad de texto de la línea de texto y luego dibujar la línea de texto dentro de la subregión.
  12. 12. El método de acuerdo con la reivindicación 11, en donde añadir textura comprende añadir rayas horizontales, verticales o curvas a diferentes intervalos.
  13. 13. El método de acuerdo con la reivindicación 11, en donde añadir deformación comprende rotar y estirar.
  14. 14. El método de acuerdo con cualquiera de las reivindicaciones 1 a 13, en donde la determinación de una imagen de fondo basada en el conjunto de imágenes de fondo comprende seleccionar cada imagen de fondo en el conjunto de imágenes de fondo por turno.
  15. 15. Un aparato para generar una imagen sintetizada, el aparato que comprende múltiples unidades configuradas para realizar el método de acuerdo con cualquiera de las reivindicaciones 1 a 14.
ES16771291T 2015-03-30 2016-03-22 Método y aparato para generar imagen sintética Active ES2819868T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201510144685.1A CN106157341B (zh) 2015-03-30 2015-03-30 生成合成图片的方法及装置
PCT/CN2016/076950 WO2016155536A1 (zh) 2015-03-30 2016-03-22 生成合成图片的方法及装置

Publications (1)

Publication Number Publication Date
ES2819868T3 true ES2819868T3 (es) 2021-04-19

Family

ID=57004223

Family Applications (2)

Application Number Title Priority Date Filing Date
ES16771291T Active ES2819868T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar imagen sintética
ES19205490T Active ES2873115T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar una imagen sintetizada

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES19205490T Active ES2873115T3 (es) 2015-03-30 2016-03-22 Método y aparato para generar una imagen sintetizada

Country Status (9)

Country Link
US (2) US10692261B2 (es)
EP (2) EP3279866B1 (es)
JP (1) JP6768695B2 (es)
KR (2) KR102107887B1 (es)
CN (1) CN106157341B (es)
ES (2) ES2819868T3 (es)
PL (2) PL3279866T3 (es)
SG (1) SG11201707783VA (es)
WO (1) WO2016155536A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106157341B (zh) 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置
CN106161346B (zh) 2015-03-30 2019-09-20 阿里巴巴集团控股有限公司 图片合成方法及装置
CN108573515B (zh) * 2017-03-10 2022-03-01 阿里巴巴集团控股有限公司 一种合图生成方法及装置、合图模板生成方法及装置
CN107608733B (zh) * 2017-09-19 2021-04-02 阿里巴巴(中国)有限公司 图片显示方法、装置和终端设备
CN107967341A (zh) * 2017-12-08 2018-04-27 广东欧珀移动通信有限公司 一种图片显示方法、终端设备及存储介质
CN110533744B (zh) * 2018-05-25 2023-02-28 阿里巴巴集团控股有限公司 合成图片的方法、设备、系统和移动终端
CN109145266B (zh) * 2018-07-25 2022-03-25 珠海市圈宝网络科技有限公司 一种从图片快速生成动态pdf文件的方法
CN109240689B (zh) * 2018-08-15 2022-08-09 腾讯科技(深圳)有限公司 一种应用图标的生成方法、装置、服务器及介质
CN108924518B (zh) * 2018-08-27 2020-10-09 上海蒙彤文化传播有限公司 推介视频中合成方法及相关产品
CN111402364A (zh) * 2018-12-27 2020-07-10 北京字节跳动网络技术有限公司 一种图像生成方法、装置、终端设备及存储介质
CN110068586B (zh) * 2019-04-10 2020-06-12 中国石油大学(北京) 扫描电镜照片的制图方法及装置
CN110163285B (zh) * 2019-05-23 2021-03-02 阳光保险集团股份有限公司 票证识别训练样本合成方法和计算机存储介质
CN110647705A (zh) * 2019-08-14 2020-01-03 平安普惠企业管理有限公司 图片合成方法、装置、设备及存储介质
CN110619312B (zh) * 2019-09-20 2022-08-23 百度在线网络技术(北京)有限公司 定位元素数据的增强方法、装置、设备及存储介质
CN110838084B (zh) * 2019-09-24 2023-10-17 咪咕文化科技有限公司 一种图像的风格转移方法、装置、电子设备及存储介质
CN110688506A (zh) * 2019-09-30 2020-01-14 北京金山安全软件有限公司 一种模板生成方法、装置、电子设备及存储介质
CN110992297A (zh) * 2019-11-11 2020-04-10 北京百度网讯科技有限公司 多商品图像合成方法、装置、电子设备及存储介质
CN111222301A (zh) * 2020-01-07 2020-06-02 天津麒麟信息技术有限公司 一种3d文字绘制方法、系统、可读存储介质及设备
CN111723585B (zh) * 2020-06-08 2023-11-28 中国石油大学(华东) 一种风格可控的图像文本实时翻译与转换方法
KR20220005820A (ko) * 2020-07-07 2022-01-14 삼성전자주식회사 그래픽 효과를 적용하기 위한 전자 장치 및 그에 관한 방법
CN112804516B (zh) * 2021-04-08 2021-07-06 北京世纪好未来教育科技有限公司 一种视频播放方法、装置、可读存储介质、电子设备
CN114863245B (zh) * 2022-05-26 2024-06-04 中国平安人寿保险股份有限公司 图像处理模型的训练方法和装置、电子设备及介质
CN115334296A (zh) * 2022-07-01 2022-11-11 深圳市安博斯技术有限公司 一种立体图像显示方法和显示装置
KR102618644B1 (ko) * 2023-08-28 2023-12-27 주식회사 리콘랩스 3차원 모델을 이용한 합성 이미지 출력 방법 및 장치

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566759A (ja) * 1991-09-09 1993-03-19 Casio Comput Co Ltd 修飾文字出力装置
JP3449563B2 (ja) * 1993-09-10 2003-09-22 アルプス電気株式会社 画像データ編集方法
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
JP3045087B2 (ja) * 1996-12-27 2000-05-22 日本電気株式会社 画像合成装置
JP2001121775A (ja) * 1999-08-19 2001-05-08 Tokyo Denshi Sekkei Kk 画像データ生成装置、画像出力システムおよび端末
JP4337251B2 (ja) * 2000-09-04 2009-09-30 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像処理方法および画像処理プログラムを記録したコンピュータ読取可能な記録媒体
GB2378340A (en) * 2001-07-31 2003-02-05 Hewlett Packard Co Generation of an image bounded by a frame or of overlapping images
JP2003058878A (ja) * 2001-08-17 2003-02-28 Ricoh Co Ltd 合成画像形成プログラム
GB0124155D0 (en) * 2001-10-08 2001-11-28 Segmentis Ltd Graphical user interface
US7110137B2 (en) * 2002-04-30 2006-09-19 Microsoft Corporation Mixed raster content files
JP4236659B2 (ja) * 2005-11-02 2009-03-11 シャープ株式会社 画像符号化装置、画像符号化方法、画像符号化プログラムおよび記録媒体
CN101093644A (zh) * 2006-06-19 2007-12-26 深圳安凯微电子技术有限公司 一种支持多输出格式下画中画功能的lcd控制电路及方法
JP4915513B2 (ja) * 2006-10-31 2012-04-11 富士ゼロックス株式会社 画像処理装置、画像形成装置、画像処理プログラム
WO2008133357A1 (en) * 2007-04-25 2008-11-06 Nexmore Systems Inc Photo synthesis service system and method
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US8584012B1 (en) * 2008-10-10 2013-11-12 Adobe Systems Incorporated Methods and systems for displaying text on a path
CN101442600B (zh) * 2008-12-11 2011-01-05 华为终端有限公司 动态处理图像的方法、装置及终端
CN101853498B (zh) * 2009-03-31 2012-01-11 华为技术有限公司 图像合成方法及图像处理装置
CN101998045A (zh) * 2009-08-11 2011-03-30 佛山市顺德区顺达电脑厂有限公司 可合成场景信息的影像处理装置
JP5359856B2 (ja) * 2009-12-25 2013-12-04 カシオ計算機株式会社 画像合成装置、画像合成方法及びプログラム
JP4998595B2 (ja) * 2010-05-31 2012-08-15 カシオ計算機株式会社 画像合成装置、及びプログラム
JP2013021607A (ja) * 2011-07-13 2013-01-31 Ricoh Co Ltd 画像データ処理装置、画像形成装置、プログラム及び記録媒体
US8731315B2 (en) * 2011-09-12 2014-05-20 Canon Kabushiki Kaisha Image compression and decompression for image matting
JP2013186521A (ja) * 2012-03-06 2013-09-19 Casio Comput Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2014096757A (ja) * 2012-11-12 2014-05-22 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
CN102938863B (zh) * 2012-11-27 2016-08-17 乐视致新电子科技(天津)有限公司 基于Android系统的智能电视图标主题替换方法和装置
JP5553423B1 (ja) * 2013-01-31 2014-07-16 株式会社精美堂 カレンダー及びその作成方法、並びにカレンダー作成システム
KR102089624B1 (ko) * 2013-09-02 2020-03-16 삼성전자주식회사 이미지를 합성하기 위한 방법 및 그 전자 장치
CN103491351A (zh) * 2013-09-29 2014-01-01 东南大学 违章建筑物的智能视频监控方法
US20150109323A1 (en) * 2013-10-18 2015-04-23 Apple Inc. Interactive black and white image editing
US9519950B2 (en) * 2013-12-20 2016-12-13 Furyu Corporation Image generating apparatus and image generating method
CN106157341B (zh) 2015-03-30 2019-05-14 阿里巴巴集团控股有限公司 生成合成图片的方法及装置

Also Published As

Publication number Publication date
US10692261B2 (en) 2020-06-23
JP6768695B2 (ja) 2020-10-14
WO2016155536A1 (zh) 2016-10-06
KR20200037887A (ko) 2020-04-09
SG11201707783VA (en) 2017-10-30
PL3618003T3 (pl) 2021-08-09
EP3618003A1 (en) 2020-03-04
EP3279866A4 (en) 2018-12-12
JP2018510429A (ja) 2018-04-12
EP3618003B1 (en) 2021-02-24
EP3279866A1 (en) 2018-02-07
CN106157341B (zh) 2019-05-14
PL3279866T3 (pl) 2020-11-16
EP3279866B1 (en) 2020-08-12
ES2873115T3 (es) 2021-11-03
US20180018800A1 (en) 2018-01-18
US10878609B2 (en) 2020-12-29
KR102107887B1 (ko) 2020-05-08
KR102215766B1 (ko) 2021-02-17
CN106157341A (zh) 2016-11-23
KR20170131669A (ko) 2017-11-29
US20200160577A1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
ES2819868T3 (es) Método y aparato para generar imagen sintética
ES2440917T3 (es) Modificación de la apariencia de una imagen digital usando una forma
JP2018510429A5 (es)
JP5538435B2 (ja) 画像特徴抽出方法及びシステム
KR102208183B1 (ko) 컬러 트윈 애니메이션을 실현하는 방법 및 장치
US9582854B2 (en) Image processing method and system
JP5813900B1 (ja) 材料のcg表現のシェーディング
US10318629B2 (en) Adaptive content rendering for optimizing page layout
CN112036158B (zh) 词云数据分布处理方法及装置
Liang et al. Visualizing large trees with divide & conquer partition
KR20190128393A (ko) 2.5 차원화를 이용한 가상 전시 공간 제공 방법
Seyfert et al. Dynamic word clouds
Liang et al. Divide and conquer treemaps: Visualizing large trees with various shapes
Papp et al. Embedding QR code onto triangulated meshes using horizon based ambient occlusion
CN110020289A (zh) 一种浏览器中的文本显示方法、装置及设备
WO2017088282A1 (zh) 调整图片文字的显示方法及装置
US20180189251A1 (en) Automatic multi-lingual editing method for cartoon content
WO2020192212A1 (zh) 图片处理方法、图集处理方法、计算机设备和存储介质
CN106843709A (zh) 根据实时信息显示展现对象的方法和装置
CN106371622B (zh) 输入法及输入设备
US20160163090A1 (en) Computing device and method for simulating process of scanning drawing of object
CN110647574B (zh) 一种社交网络数据展示方法、终端设备及存储介质
US20230244825A1 (en) Technologies for digitally rendering three dimensional designs for foldable products
JP6421493B2 (ja) 画像処理装置、画像処理方法、プログラム
JPWO2017203705A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム