ES2967691T3 - Ajuste de una representación digital de una región de cabeza - Google Patents

Ajuste de una representación digital de una región de cabeza Download PDF

Info

Publication number
ES2967691T3
ES2967691T3 ES18844651T ES18844651T ES2967691T3 ES 2967691 T3 ES2967691 T3 ES 2967691T3 ES 18844651 T ES18844651 T ES 18844651T ES 18844651 T ES18844651 T ES 18844651T ES 2967691 T3 ES2967691 T3 ES 2967691T3
Authority
ES
Spain
Prior art keywords
head region
digital representation
machine learning
reference data
editing instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18844651T
Other languages
English (en)
Inventor
Eric Sommerlade
Alexandros Neophytou
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RealD Spark LLC
Original Assignee
RealD Spark LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=65271511&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2967691(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by RealD Spark LLC filed Critical RealD Spark LLC
Application granted granted Critical
Publication of ES2967691T3 publication Critical patent/ES2967691T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

Se divulgan métodos y dispositivos para generar datos de referencia para ajustar una representación digital de una región de la cabeza, y métodos y dispositivos para ajustar la representación digital de una región de la cabeza. En algunos acuerdos, se reciben datos de entrenamiento. Un primer algoritmo de aprendizaje automático genera los primeros datos de referencia utilizando los datos de entrenamiento. Un segundo algoritmo de aprendizaje automático genera segundos datos de referencia utilizando los mismos datos de entrenamiento y los primeros datos de referencia generados por el primer algoritmo de aprendizaje automático. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Ajuste de una representación digital de una región de cabeza
Campo técnico
Esta solicitud se refiere al ajuste de una representación digital, tal como una imagen o una representación geométrica tridimensional, de una región principal, particularmente una región facial y/o del cuello. La solicitud se refiere particularmente al ajuste de características objetivo de la representación digital de la región de cabeza, por ejemplo, para corregir la dirección de la mirada percibida de los ojos, o para modificar la textura y/o forma de rasgos tales como la nariz, boca, barbilla o cuello.
Antecedentes
En muchos sistemas, imágenes de una cabeza, que pueden comprender imágenes únicas en diferentes momentos, o pares estereoscópicos de imágenes u otras imágenes de vistas múltiples, pueden capturarse en un dispositivo y mostrarse en un dispositivo diferente para que lo vea un observador. Un ejemplo no limitativo es un sistema para realizar teleconferencias entre dos dispositivos de telecomunicaciones. En ese caso, cada dispositivo puede capturar imágenes del observador de ese dispositivo y transmitirlas al otro dispositivo a través de una red de telecomunicaciones para que el observador del otro dispositivo las muestre y las vea. También podrán capturarse representaciones digitales distintas de las imágenes y/o complementarias a las imágenes, por ejemplo, utilizando mediciones de profundidad (por ejemplo, utilizando una cámara de tiempo de vuelo).
Cuando se captura y muestra una imagen u otra representación digital de una cabeza, la mirada de la cabeza no puede dirigirse al observador. Esto puede deberse, por ejemplo, a que la mirada de la cabeza no esté dirigida al sistema de detección (por ejemplo, un sistema de cámara) utilizado para capturar la representación digital (por ejemplo, una imagen), por ejemplo, porque un usuario cuya cabeza es fotografiada está observando una pantalla en el mismo dispositivo que un sistema de cámara y el sistema de cámara está desplazado por encima (o por debajo) de esa pantalla. En ese caso, la mirada en las imágenes mostradas se percibirá hacia abajo (o hacia arriba). El sistema visual humano ha desarrollado una alta sensibilidad a la mirada durante la interacción social, utilizando señales obtenidas de la posición relativa del iris y la esclerótica blanca de otros observadores. Errores en la mirada percibida son desconcertantes. Por ejemplo, en un sistema para realizar teleconferencias, los errores en la mirada percibida pueden crear interacciones antinaturales entre los usuarios.
La presente divulgación se refiere a técnicas de procesamiento (por ejemplo, técnicas de procesamiento de imágenes) para ajustar representaciones digitales (por ejemplo, imágenes) de una región de cabeza para corregir la mirada percibida y/o mejorar otros aspectos de una visualización generada por computadora de la región de cabeza. La presente divulgación se refiere particularmente a la implementación de tales técnicas de procesamiento con demandas mínimas de hardware y/o energía del ordenador, de modo que proporcionen resultados en o cerca de la velocidad de cuadros de datos de entrada o los requisitos de retroalimentación del usuario.
Yaroslav Ganinet al.:"DeepWarp: Photorealistic Image Resynthesis for Gaze Manipulation", páginas 1 a 18, 26 de julio de 2016, divulga métodos para generar imágenes de un rostro determinado con una mirada redirigida. El problema se trata como un caso específico de generación de imágenes condicional. Se divulga una arquitectura profunda para manejar la tarea. La arquitectura profunda realiza una deformación de gruesa a fina con una corrección de intensidad adicional de píxeles individuales. Todas estas operaciones se realizan de manera anticipada y los parámetros asociados con diferentes operaciones se aprenden conjuntamente de un extremo a otro. Después de aprender, la red neuronal resultante puede sintetizar imágenes con la mirada manipulada, mientras que el ángulo de redireccionamiento se puede seleccionar arbitrariamente dentro de un cierto rango y proporcionarse como entrada a la red.
El documento US 2017/195662 A1 divulga un método en el que la mirada se corrige ajustando imágenes de vistas múltiples de una cabeza. Se identifican parches de imagen que contienen los ojos izquierdo y derecho de la cabeza y se deriva un vector de características a partir de varios descriptores de imagen locales del parche de imagen en al menos una imagen de las imágenes de vistas múltiples. Se deriva un campo vectorial de desplazamiento que representa una transformación de un parche de imagen, usando el vector de características derivado para buscar datos de referencia que comprenden campos de vectores de desplazamiento de referencia asociados con posibles valores del vector de características producido por el aprendizaje automático. Las imágenes de vistas múltiples se ajustan transformando los parches de imagen que contienen los ojos izquierdo y derecho de la cabeza de acuerdo con el campo vectorial de desplazamiento derivado.
Breve sumario
El alcance de la invención se define en las reivindicaciones adjuntas.
De acuerdo con un aspecto de la invención, se proporciona el método de la reivindicación 1 para generar datos de referencia para ajustar una representación digital de una región de cabeza.
El uso descrito de dos algoritmos de aprendizaje automático permite lograr un equilibrio mejorado entre la precisión del proceso de ajuste y la velocidad de ejecución. El primer algoritmo de aprendizaje automático se puede configurar para proporcionar primeros datos de referencia muy detallados, lo que proporciona una alta precisión. El uso de estos primeros datos de referencia directamente en una técnica de procesamiento (por ejemplo, técnica de procesamiento de imágenes) para ajustar una representación digital (por ejemplo, imagen o representación geométrica tridimensional) de una región de cabeza sería relativamente costoso en términos de recursos computacionales debido al alto nivel de detalle. Al disponer, en cambio, que los primeros datos de referencia se proporcionen a un segundo algoritmo de aprendizaje automático, que proporciona, basado en los primeros datos de referencia y los datos de entrenamiento originales, los datos de referencia (los segundos datos de referencia) que se van a utilizar para el ajuste de la representación digital de la región de cabeza, es posible beneficiarse hasta cierto punto de la alta precisión del primer algoritmo de aprendizaje automático y al mismo tiempo proporcionar datos de referencia que son menos detallados y, por lo tanto, más fáciles de procesar de manera eficiente al realizar el ajuste de la representación digital de la región de cabeza. Se descubre que la calidad de los datos de referencia proporcionados por el segundo algoritmo de aprendizaje automático mejora significativamente cuando el segundo algoritmo de aprendizaje automático se proporciona tanto con los primeros datos de referencia como con los datos de entrenamiento en comparación con cuando el segundo algoritmo de aprendizaje automático se proporciona solo con los datos de entrenamiento.
La eficiencia se mejora aún más proporcionando instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) en los segundos datos de referencia en una representación comprimida. El uso de una representación comprimida reduce los requisitos de almacenamiento de datos y ancho de banda durante el uso de las instrucciones de edición para realizar el ajuste de una representación digital de una región de cabeza.
De acuerdo con un aspecto alternativo de la invención, se proporciona un dispositivo correspondiente de la reivindicación 15.
La presente divulgación también describe un método para ajustar una representación digital de una región de cabeza, comprendiendo el método: identificar un parche objetivo en la representación digital de la región de cabeza, comprendiendo el parche objetivo una característica objetivo de la representación digital de la región de cabeza; derivar un vector de características a partir de varios descriptores locales del parche objetivo; usar el vector de características para seleccionar instrucciones de edición a partir de datos de referencia, comprendiendo los datos de referencia instrucciones de edición para un rango de valores posibles del vector de características; y aplicar las instrucciones de edición seleccionadas al parche objetivo para ajustar la representación digital de la región de cabeza, en donde: las instrucciones de edición en los datos de referencia se proporcionan en una representación comprimida.
La presente divulgación también describe un dispositivo configurado para realizar el método anterior.
La presente divulgación también describe un método para entrenar un algoritmo de aprendizaje automático para ajustar una representación digital de una región de cabeza, que comprende: recibir datos de entrenamiento que comprende: un conjunto de parches de entrada, comprendiendo cada parche de entrada una característica objetivo de una representación digital de una región de cabeza antes del ajuste de la representación digital de la región de cabeza, en donde la característica objetivo es la misma para cada parche de entrada; y primeros datos de referencia generados por un primer algoritmo de aprendizaje automático previamente entrenado, comprendiendo los primeros datos de referencia un conjunto de instrucciones de edición en correspondencia uno a uno con los parches de entrada, siendo cada instrucción de edición para ajustar la representación digital de la región de cabeza; actualizar un segundo algoritmo de aprendizaje automático previamente entrenado para generar segundos datos de referencia, donde la entrada para la actualización comprende los datos de entrenamiento y los primeros datos de referencia generados, los segundos datos de referencia comprenden instrucciones de edición para ajustar la representación digital de la región de cabeza.
La presente divulgación también describe un método para entrenar un algoritmo de aprendizaje automático para ajustar una representación digital de una región de cabeza, comprendiendo el método: recibir datos de entrenamiento que comprenden un conjunto de representaciones digitales de entrada de una región de cabeza; entrenar un primer algoritmo de aprendizaje automático usando los datos de entrenamiento para realizar un ajuste de una representación digital de una región de cabeza; utilizar el primer algoritmo de aprendizaje automático entrenado para generar los primeros datos de referencia, comprendiendo los primeros datos de referencia una representación digital ajustada de la región de cabeza para cada uno de al menos un subconjunto de las representaciones digitales de entrada, obteniéndose cada representación digital ajustada realizando el ajuste para el que fue entrenado el primer algoritmo de aprendizaje automático; y entrenar un segundo algoritmo de aprendizaje automático usando al menos un subconjunto de los datos de entrenamiento usados para entrenar el primer algoritmo de aprendizaje automático y los primeros datos de referencia para realizar el mismo ajuste de una representación digital de una región de cabeza que el primer algoritmo de aprendizaje automático.
Breve descripción de los dibujos
Realizaciones no limitativas se ilustran a modo de ejemplo en las figuras adjuntas, en las que números de referencia similares indican piezas similares, y en el que:
LaFIGURA 1es una vista en perspectiva esquemática de un dispositivo que captura un par de imágenes estereoscópicas;
LaFIGURA 2es una vista en perspectiva esquemática de un dispositivo que muestra el par de imágenes estereoscópicas;
LaFIGURA 3es un diagrama de flujo de un método de ajuste de un par de imágenes estereoscópicas;
LaFIGURA 4es un diagrama que ilustra el procesamiento del par de imágenes estereoscópicas en el método de la FIGURA 3;
LaFIGURA 5es un diagrama de flujo de una etapa de extraer un parque de imagen;
LaFIGURA 6y laFIGURA 7son diagramas de flujo de dos alternativas para una etapa de ajuste de una imagen; LaFIGURA 8es un diagrama de flujo de un método para generar datos de referencia;
LaFIGURA 9representa esquemáticamente el flujo de datos en un método de ejemplo para generar datos de referencia;
LaFIGURA 10representa un dispositivo para generar datos de referencia;
LaFIGURA 11es un diagrama de flujo de un método de ajuste de una imagen de una región de cabeza;
LaFIGURA 12representa esquemáticamente el flujo de datos en un ejemplo de un método para ajustar una imagen de una región de cabeza;
LaFIGURA 13es un diagrama de un sistema de telecomunicaciones en el que puede implementarse el método; LaFIGURA 14representa esquemáticamente el flujo de datos en un método de ejemplo de generación de datos de referencia para convertir una representación digital bidimensional de una región de cabeza en una representación digital tridimensional de una región de cabeza; y
LaFIGURA 15representa esquemáticamente el flujo de datos en un ejemplo de un método para ajustar una representación digital de una región de cabeza en el que un segundo algoritmo de aprendizaje automático se actualiza en línea.
Descripción detallada
LaFIGURA 1y laFIGURA 2ilustran cómo se percibe la mirada incorrecta cuando un par de imágenes estereoscópicas de una cabeza es capturado por el dispositivo 10 mostrado en la FIGURA 1, al que se hará referencia como el dispositivo de origen 10, y se muestra en un dispositivo 20 diferente que se muestra en la FIGURA 2, que será denominado dispositivo de destino 20. Como ejemplo se muestra la captura de un par de imágenes estereoscópicas. Puede ocurrir un efecto similar cuando se captura una imagen monocular y cuando se capturan más de dos vistas de la cabeza. También puede producirse un efecto similar cuando se utilizan técnicas de detección alternativas o adicionales para construir una representación digital de la cabeza (por ejemplo, cuando se utiliza un sensor de profundidad, como una cámara de tiempo de vuelo, para obtener información geométrica tridimensional sobre las posiciones en la superficie de la cabeza).
En la realización mostrada, el dispositivo de captura 10 incluye una pantalla 11 y un sistema de cámara 12. En este ejemplo particular, el sistema de cámara comprende dos cámaras 13 para capturar el par de imágenes estereoscópicas de la cabeza de un observador fuente 14. En una implementación monocular se puede proporcionar una única cámara en lugar de las dos cámaras 13. En otras implementaciones, de forma alternativa o adicional, se proporciona un sensor de profundidad. El observador de la fuente 14 ve la pantalla 11, a lo largo de la línea 15. Las cámaras 13 (que incluyen opcionalmente uno o más sensores de profundidad) del sistema de cámara 12 están desplazadas de la pantalla 11, estando en este caso encima de la pantalla 11. Por tanto, las cámaras 13 miran efectivamente hacia abajo al observador fuente 14 a lo largo de la línea 16.
El dispositivo de pantalla 20 incluye una pantalla 21, que en este ejemplo puede ser una pantalla estereoscópica de cualquier tipo conocido, por ejemplo, una pantalla autoestereoscópica de cualquier tipo conocido. La pantalla 21 muestra el par de imágenes estereoscópicas capturadas por el dispositivo de captura 10. Un observador de destino 24 ve la pantalla 21. Si el observador de destino 24 está ubicado en una posición de visión normal perpendicular al centro de la pantalla 21, como se muestra en el contorno definido del observador de destino 24, entonces, el observador de destino 24 percibe que la mirada del observador de origen 14 está hacia abajo, en lugar de mirar al observador de destino 24, porque las cámaras 13 del dispositivo de origen 10 miran hacia abajo al observador fuente 14.
Aunque las cámaras 13 están encima de la pantalla 11 en este ejemplo, las cámaras 13 podrían en general estar en cualquier ubicación adyacente a la pantalla 11, y la mirada del observador de origen 14 percibida por el observador de destino 24 sería correspondientemente incorrecta.
Si el observador de destino 24 está situado en una posición de visualización desplazada, como se muestra mediante el contorno de puntos del observador de destino 24 de modo que el observador de destino 24 ve la pantalla 21 a lo largo de la línea 26, entonces el desplazamiento del observador de destino 24 crea un error adicional en la mirada del observador de origen 14 percibido por el observador de destino 24. Un error adicional similar en la mirada percibida del observador fuente 14 ocurre si el observador destino 24 está ubicado en la posición de observación normal a lo largo de la línea 25, pero la imagen visualizada (o el par de imágenes estereoscópicas en este ejemplo) se visualiza en la pantalla 25 en una posición desplazada desde el centro de la pantalla 25.
Un par de imágenes estereoscópicas es un ejemplo de imágenes de vistas múltiples donde hay dos imágenes. Aunque la FIGURA 1 ilustra un ejemplo en el que el sistema de cámara 12 incluye dos cámaras 13 que capturan un par de imágenes estereoscópicas, alternativamente, el sistema de cámara puede incluir más de dos cámaras 13 que capturan más de dos imágenes de múltiples vistas, en cuyo caso existen problemas similares de percepción de mirada incorrecta. Alternativamente, el sistema de cámara puede incluir solo una cámara y/o uno o más sensores de profundidad.
LaFIGURA 3ilustra un método para ajustar imágenes de vistas múltiples para corregir tales errores en la mirada percibida. El método de la FIGURA 3 es un ejemplo específico de un método para ajustar representaciones digitales de una región de cabeza en un caso en el que las representaciones digitales comprenden imágenes de la región de cabeza y en el que las imágenes comprenden una o más imágenes de múltiples vistas de la región de cabeza. Por motivos de simplicidad, este método se describirá con respecto al ajuste de imágenes de vistas múltiples que comprenden un par de imágenes estereoscópicas. El método puede generalizarse a imágenes de vistas múltiples que comprenden más de dos imágenes, simplemente realizando un procesamiento similar en una mayor cantidad de imágenes. El método también puede generalizarse al caso en el que se utilizan imágenes de vista única (monocular) de la región de cabeza y al caso en el que información de otras modalidades de detección, tales como mediciones de profundidad, se incluye dentro de las representaciones digitales de la región principal.
El método puede realizarse en un procesador de imágenes 30 (u otro procesador). El procesador de imágenes 30 puede implementarse mediante un procesador que ejecuta un programa informático adecuado o mediante hardware dedicado o mediante alguna combinación de software y hardware. Cuando se utilice un programa informático, el programa informático puede comprender instrucciones en cualquier lenguaje adecuado y puede almacenarse en un medio de almacenamiento legible por ordenador, que puede ser de cualquier tipo, por ejemplo: un medio de grabación que se inserta en una unidad del sistema informático y que puede almacenar información magnéticamente, ópticamente u optomagnéticamente; un medio de grabación fijo del sistema informático tal como un disco duro; o una memoria de ordenador.
El procesador de imágenes 30 (u otro procesador) puede proporcionarse en el dispositivo de origen 10, el dispositivo de destino 10 o en cualquier otro dispositivo, por ejemplo, un servidor en una red de telecomunicaciones, lo que puede ser adecuado en el caso de que el dispositivo de origen 10 y el dispositivo de destino 10 se comuniquen a través de dicha red de telecomunicaciones.
En este ejemplo, un par de imágenes estereoscópicas 31 son capturadas por el sistema de cámara 12. Aunque los sistemas de cámara 12 se ilustran en la FIGURA 1 incluyen dos cámaras 13, esto no es limitativo y más generalmente el sistema de cámara 13 puede tener las siguientes propiedades.
El sistema de cámaras comprende un conjunto de una o más cámaras 13, con al menos dos cámaras 13 en el caso de que se procesen imágenes de múltiples vistas. Cuando se proporcionan dos cámaras, las cámaras suelen estar espaciadas por una distancia menor que la distancia intrapupilar humana promedio. En la alternativa de que el método se aplique a más de dos imágenes de múltiples vistas, entonces hay más de dos cámaras 13, es decir, una cámara 13 por imagen. En algunas realizaciones, se proporciona un sensor de profundidad para obtener información geométrica tridimensional sobre una superficie de la región de cabeza, opcionalmente además de una o más cámaras (por ejemplo, cámaras ópticas). El sensor de profundidad puede comprender una cámara de tiempo de vuelo.
Cuando se proporcionan varias cámaras 13, las cámaras 13 pueden estar relacionadas espacialmente entre sí y con la pantalla 11. La relación espacial entre las propias cámaras 13 y entre las cámaras 13 y la pantalla 11 se conoce de antemano. Se pueden aplicar métodos conocidos para encontrar la relación espacial, por ejemplo, un método de calibración utilizando una imagen de referencia o una especificacióna priori.
La cámara o cámaras 13 miran en la misma dirección que la pantalla 11. Por tanto, cuando el observador fuente 14 está viendo la pantalla 11, luego la cámara o cámaras 13 se enfrentan al observador fuente 14 y a la información capturada, tal como información de profundidad, la imagen o imágenes (por ejemplo, un par de imágenes estereoscópicas) son representaciones digitales (por ejemplo, imágenes y/o representaciones geométricas tridimensionales) de la cabeza del observador fuente 14. Las diferentes cámaras del sistema de cámaras pueden tener diferentes campos de visión.
El sistema de cámara 12 puede incluir cámaras 13 que tienen diferentes modalidades de detección, incluyendo, aunque no estando limitado a luz visible, infrarrojos y tiempo de vuelo (profundidad).
En algunas realizaciones, la salida principal del sistema de cámara 13 son imágenes 31 que normalmente son imágenes de vídeo emitidas a una velocidad de vídeo. La salida del sistema de cámara 13 también puede incluir datos que representan la relación espacial entre las cámaras 13 y la pantalla 11, la naturaleza de las modalidades de detección y los parámetros internos de las cámaras 13 (por ejemplo, distancia focal, eje óptico) que puede usarse para la localización angular, así como información geométrica tridimensional, por ejemplo, a partir de mediciones de profundidad.
Un ejemplo del método realizado en una representación digital de una región de cabeza que comprende un par de imágenes estereoscópicas 31, para el caso del ajuste de las regiones oculares, es de la siguiente manera. Para ilustrar este método de ejemplo, también se hace referencia a laFIGURA 4, que muestra un ejemplo del par de imágenes estereoscópicas 31 en diversas etapas del método.
En la etapa S1, el par de imágenes estereoscópicas 31 se analizan para detectar la ubicación de la cabeza y en particular los ojos del observador fuente 14 dentro del par de imágenes estereoscópicas 31. Esto se realiza detectando la presencia de una cabeza, rastrear la cabeza y localizar los ojos de la cabeza. La etapa S1 se puede realizar usando una variedad de técnicas conocidas en la técnica.
Una posible técnica para detectar la presencia de la cabeza es utilizar cascadas de características de Haar, por ejemplo, como se divulga en Viola y Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", CVPR 2001, págs. 1-9.
Una posible técnica para rastrear la cabeza es utilizar el enfoque de Modelos de Apariencia Activa para proporcionar la posición de la cabeza del sujeto, así como de la ubicación de los ojos, por ejemplo, como se divulga en Cooteset al.,"Active shape models - their training and application", Computer Vision and Image Understanding, 61(1):38-59, enero 1995 y en Cooteset al."Active appearance models", IEEE Trans. Pattern Analysis and Machine Intelligence, 23(6):681-685, 2001.
En la etapa S1, típicamente, un conjunto de puntos individuales ("puntos de referencia") se establecen en regiones de la cara, normalmente los ojos, por ejemplo, esquinas del ojo, ubicaciones del párpado superior e inferior, etc., localizando así los ojos.
En la etapa S2, parches que representan porciones de una representación digital de la región de cabeza, que en este ejemplo puede referirse a parches de imágenes, que contiene los ojos izquierdo y derecho de la cabeza, respectivamente, se identifican en cada imagen 31 del par estereoscópico. La FIGURA 4 muestra los parches de imagen identificados 32 del ojo derecho en cada imagen 31 (los parches de imagen para el ojo izquierdo se omiten en la FIGURA 4 para mayor claridad).
La etapa S2 se puede realizar como se muestra en laFIGURA 5,como sigue.
En la etapa S2-1, los parches de imagen 32 que contienen los ojos izquierdo y derecho de la cabeza se identifican en cada imagen 31 del par estereoscópico. Esto se hace identificando un parche de imagen 39 en cada imagen 31 ubicado alrededor de los puntos identificados ("puntos de referencia") correspondientes a características de un ojo, como se muestra, por ejemplo, en la FIGURA 4.
En la etapa S2-2, los parches de imagen 32 identificados en la etapa S2-1 se transforman en un sistema de coordenadas normalizado, siendo el mismo sistema de coordenadas normalizado que se utiliza en el proceso de aprendizaje automático que se describe más adelante. La transformación se elige para alinear los puntos ("puntos de referencia") del ojo dentro del parche de imagen que se identificaron en la etapa S1, con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir traslación, rotación y escala, en la medida adecuada para lograr esa alineación. El resultado de la etapa S2-2 son parches de imagen 33 identificados del ojo derecho en cada imagen en el sistema de coordenadas normalizado como se muestra, por ejemplo, en la FIGURA 4.
Los siguientes pasos se pueden realizar por separado (a) con respecto a los parches de imagen que contienen los ojos izquierdos de la cabeza en cada imagen 31 del par estereoscópico, y (b) con respecto a los parches de imagen que contienen los ojos derechos de la cabeza en cada imagen 31 del par estereoscópico (en este ejemplo). Para mayor brevedad, la siguiente descripción se referirá simplemente a parches de imágenes y ojos sin especificar el ojo izquierdo o derecho, pero tenga en cuenta que se realizan las mismas etapas tanto para el ojo izquierdo como para el derecho.
En la etapa S3, un vector de características 34 se deriva de varios descriptores locales (que representan información sobre una región local en un parche), que en este ejemplo pueden denominarse descriptores de imágenes locales, de un parche de imagen 33 en al menos una imagen 31 del par estereoscópico (en este ejemplo). Dependiendo del enfoque y como se describe más adelante, esto puede ser un parche de imagen en una única imagen 31 del par estereoscópico o pueden ser ambas imágenes 31 del par estereoscópico. Por tanto, los descriptores de imágenes locales son descriptores de imágenes locales derivados en el sistema de coordenadas normalizado.
Los vectores de características 34 son representaciones de los parches de imagen 33 que son adecuados para su uso en la búsqueda de datos de referencia 35 que se usarán para ajustar los parches de imagen. Los datos de referencia 35 pueden comprender campos de vectores de desplazamiento de referencia que representan transformaciones del parche de imagen, u otras representaciones de transformaciones del parche de imagen, incluidas representaciones comprimidas como se describe a continuación, y están asociadas con posibles valores del vector de características.
Los datos de referencia 35 se obtienen y analizan previamente utilizando una técnica de aprendizaje automático. La técnica de aprendizaje automático puede derivar la forma de los vectores de características 34 y asociar transformaciones tales como los campos de vectores de desplazamiento de referencia con los posibles valores del vector de características. Un ejemplo específico de una técnica de aprendizaje automático aplicada en el caso en el que se desea corregir la mirada utilizando representaciones digitales de una región de cabeza que comprende imágenes de la región de cabeza, ahora se describirá antes de volver al método de la FIGURA 3.
La entrada de entrenamiento para la técnica de aprendizaje automático son dos conjuntos de imágenes (o parches de imágenes), que pueden ser pares de imágenes estereoscópicas o imágenes monoscópicas, como se analiza más adelante. Cada conjunto puede comprender imágenes de la cabeza del mismo grupo de individuos pero capturadas con cámaras en diferentes ubicaciones con respecto a la mirada, de modo que la mirada percibida difiera entre ellos (en el caso en que la mirada deba corregirse).
El primer conjunto son imágenes de entrada, siendo imágenes de cada individuo con una mirada incorrecta donde se conoce el errora priori.En particular, las imágenes del primer conjunto pueden ser capturadas por al menos una cámara en una ubicación de cámara conocida donde la mirada del individuo está en una dirección conocida diferente. Por ejemplo, en el caso del dispositivo de origen de la FIGURA 1, la ubicación de la cámara puede ser la ubicación de una cámara 13 y mientras la mirada del individuo fotografiado está hacia el centro de la pantalla 11.
El segundo conjunto son imágenes de salida, siendo imágenes de cada individuo con la mirada correcta para una ubicación predeterminada del observador con respecto a una ubicación de visualización en la que se va a mostrar la imagen. En el caso más sencillo, la ubicación del observador es una posición de visualización normal perpendicular al centro de la ubicación de visualización, por ejemplo, como se muestra en el contorno definido del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2.
Para cada imagen de los dos conjuntos, la imagen se analiza para detectar la ubicación de la cabeza y en particular los ojos usando la misma técnica que se usa en la etapa S1 descrito anteriormente, y luego se muestran parches que contienen los ojos izquierdo y derecho de la cabeza, respectivamente, se identifican utilizando la misma técnica que se utiliza en la etapa S2 descrita anteriormente. Las siguientes etapas pueden realizarse entonces por separado (a) con respecto a los parches de imagen que contienen los ojos izquierdos de la cabeza en cada imagen, y (b) con respecto a los parches de imagen que contienen los ojos derechos de la cabeza en cada imagen. Para mayor brevedad, la siguiente descripción se referirá simplemente a parches de imágenes y ojos sin especificar el ojo izquierdo o derecho, pero debe tenerse en cuenta que en esta realización se realizan las mismas etapas para los ojos izquierdo y derecho.
Cada parche de imagen se transforma en el mismo sistema de coordenadas normalizado que se utiliza en el paso S2 descrito anteriormente. Como se ha descrito anteriormente, la transformación se elige para alinear puntos ("puntos de referencia") del ojo con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir, por ejemplo, traslación, rotación y/o escalado, en la medida adecuada para lograr esa alineación.
Por tanto, las imágenes de entrada y salida de los parches de imágenes de cada individuo están alineadas en el sistema de coordenadas normalizado.
A partir de una imagen de entrada y salida de cada individuo, se deriva un campo vectorial de desplazamiento que representa la transformación del parche de imagen en la imagen de entrada requerida para obtener el parche de imagen de la imagen de salida, por ejemplo, como sigue. Definir posiciones en los parches de la imagen mediante (x,y), el campo vectorial de desplazamiento F está dado por
F={u(x, y), v(x, y)}
donde u y v definen las componentes horizontal y vertical del vector en cada posición (x,y).
El campo del vector de desplazamiento F se elige de modo que el parche de imagen de la imagen de salida O(x,y) se derive del parche de imagen de la imagen de entrada I(x,y) como
O(x, y) = I(x+u(x, y), y+v(x,y))
Para datos de imagen de más de una cámara, el sistema entrega un campo vectorial de desplazamiento para la imagen de entrada de cada cámara.
El campo del vector de desplazamiento F para una imagen de entrada y salida de un individuo se puede derivar usando un proceso en el que se modifica un vector de características de prueba F'={u',v'} para minimizar el error, opcionalmente en un proceso iterativo, por ejemplo, de acuerdo con:
A modo de ejemplo no limitante, el campo vectorial de desplazamiento F puede derivarse como se describe en Kononenkoet al.,"Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, págs. 4667-4675, en el que el campo vectorial de desplazamiento F se denomina "campo de flujo".
Otro ejemplo para editar instrucciones, que pueden denominarse instrucciones de edición de imágenes en los casos en que la representación digital de la región de cabeza consista en imágenes, que puede usarse adicionalmente o como alternativa al campo de vector de desplazamiento en cualquiera de las disposiciones descritas en el presente documento, viene dado por el campo de filtro L = {k(P, x, y) }, que define un núcleo de filtro para una ubicación determinada (x, y). Este campo de filtro L se elige de modo que el parche de imagen de la imagen de salida O(x, y) se deriva del parche de imagen de la imagen de entrada I(x, y) como O(x, y) = k(P(I, x, y)), x, y)), donde P(I, x, y) es una región local alrededor del punto (x,y) en la imagen I, y k(P, x, y) opera sobre el parche P con coeficientes que dependen de la posición (x, y). Por ejemplo, podría ser la salida de una convolución del parche con un filtro gaussiano con un ancho que depende de la posición x en la imagen, o un aumento de brillo de un píxel local dependiendo de la posición vertical y.
Otro ejemplo de instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) que se pueden usar adicionalmente o como alternativa al campo de vector de desplazamiento en cualquiera de las disposiciones descritas en el presente documento, viene dado por un conjunto de componentes de imagen típicos que conforman el área de la imagen editada, por ejemplo, textura que muestra barba incipiente. Luego, estos se combinan con un factor que depende de las coordenadas de la imagen y el contenido de la imagen local (es decir, un campo de combinación de texturas). Se pueden utilizar otros campos de transformación, tal como un campo de ajuste de brillo.
Se utiliza una técnica de aprendizaje automático para obtener un mapa del campo del vector de desplazamiento F (u otras instrucciones de edición, como instrucciones de edición de imágenes) de cada individuo a los respectivos vectores de características derivados de descriptores locales plurales (por ejemplo, imágenes) de un parche objetivo de una imagen de entrada.
Los descriptores locales (por ejemplo, descriptores de imágenes locales) capturan información relevante de una parte local de un parche (por ejemplo, parche de imagen) de una representación digital de entrada de la región de cabeza (por ejemplo, una imagen de entrada) y el conjunto de descriptores locales generalmente forman un vector continuo. producción.
Los descriptores locales introducidos en el proceso de aprendizaje automático son del tipo que se espera que proporcione discriminación entre diferentes individuos, aunque los descriptores de imágenes específicos son seleccionados y optimizados por el propio proceso de aprendizaje automático. Por lo general, los descriptores locales puede ser de cualquier tipo, algunos ejemplos no limitativos que pueden aplicarse en cualquier combinación son los siguientes.
Los descriptores locales pueden incluir valores de píxeles individuales o una combinación lineal de los mismos. Tal combinación lineal puede ser, por ejemplo, una diferencia entre los píxeles en dos puntos, un núcleo derivado dentro de una máscara en una ubicación arbitraria, o una diferencia entre dos núcleos en diferentes ubicaciones.
Los descriptores locales pueden incluir distancias de la ubicación de un píxel desde la posición de un punto de vista ("punto de referencia").
Los descriptores locales pueden incluir características SIFT (características de transformación de características invariantes de escala), por ejemplo, como se divulga en Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision 60 (2), págs. 91-110.
Los descriptores locales pueden incluir características HOG (histograma de características de gradientes orientados), por ejemplo, como se divulga en Dalalet al."Histograms of Oriented Gradients for Human Detection", Computer Vision and Pattern Recognition, 2005, p. 886-893.
Los descriptores locales pueden incluir "representaciones de bajo nivel" de etapas de preclasificación en redes neuronales de aprendizaje profundo, por ejemplo, como se divulga en Yang y Ramanan, "Multi-scale recognition with DAG-CNNs", ICCV 2015. En una red neuronal de aprendizaje profundo de clasificación con múltiples capas aplicadas a una representación digital de entrada (por ejemplo, una imagen), por ejemplo, estas características de bajo nivel podrían tomarse de una capa anterior a la capa de clasificación final de la red.
La derivación del vector de características a partir de descriptores locales plurales depende del tipo de aprendizaje automático aplicado.
En un primer tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores derivados de los descriptores locales (por ejemplo, descriptores de imágenes locales) en un espacio discreto, siendo valores binarios o valores discretizados en más de dos valores posibles. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F derivado de la entrada de entrenamiento con cada valor posible del vector de características en el espacio discreto, de modo que los datos de referencia 35 pueden proporcionar una funcionalidad similar a una tabla de consulta, con el aprendizaje automático generando un conjunto de parámetros de aprendizaje automático que se puede utilizar para generar las instrucciones de edición correspondientes. Esto permite seleccionar simplemente un campo de vector de desplazamiento de referencia F a partir de los datos de referencia 35 basándose en el vector de características 34 derivado en la etapa S3, como se describe a continuación.
En el caso de que el vector de características comprenda características que sean valores binarios derivados de los descriptores locales, el vector de características tiene una representación binaria. Estos valores binarios pueden derivarse de diversas formas a partir de los valores de los descriptores, por ejemplo, comparando el valor de un descriptor con un umbral, comparando el valor de dos descriptores, o comparando la distancia de la ubicación de un píxel desde la posición de un punto de vista ("hito").
De manera alternativa, el vector de características puede comprender características que son valores discretizados de los descriptores locales. En este caso, son posibles más de dos valores discretos de cada característica.
Se puede aplicar cualquier técnica de aprendizaje automático adecuada, por ejemplo, usando un árbol de decisión, un bosque de decisiones, un helecho de decisión o un conjunto o combinación de los mismos, o una red neuronal.
A modo de ejemplo, una técnica de aprendizaje automático adecuada que utiliza un vector de características que comprende características que son valores binarios derivados comparando un conjunto de píxeles individuales o una combinación lineal de los mismos con un umbral, se divulga en Ozuysalet al."Fast Keypoint Recognition in Ten Lines of Code", Computer Vision and Pattern Recognition, 2007, p. 1-8.
A modo de ejemplo adicional, se describe una técnica de aprendizaje automático adecuada que utiliza una distancia de la ubicación de un píxel con la posición de un punto de referencia ocular en Kononenkoet al.,"Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, p. 4667-4675.
A modo de ejemplo adicional, en Ho se describe una técnica de aprendizaje automático adecuada que utiliza un bosque de decisión aleatoria, "Random Decision Forests", Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montréal, QC, 14-16 de Agosto de 1995, p. 278-282.
En un segundo tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores discretos de los descriptores locales (por ejemplo, descriptores de imágenes locales) en un espacio continuo. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F (en este ejemplo, pero se podrían usar otras instrucciones de edición) derivadas de la entrada de entrenamiento con posibles valores discretos del vector de características en el espacio continuo. Esto permite derivar un campo de vector de desplazamiento F a partir de los datos de referencia 35 mediante interpolación de los campos de vector de desplazamiento de referencia basándose en la relación entre el vector de característica 34 derivado en la etapa S3 y los valores del vector de característica asociado con los campos de vector de desplazamiento de referencia.
Se puede aplicar cualquier técnica de aprendizaje automático adecuada, por ejemplo, utilizando la regresión del vector de soporte.
A modo de ejemplo, una técnica de aprendizaje automático adecuada que utiliza la regresión de vectores de soporte se divulga en Druckeret al."Support Vector Regression Machines", Advances in Neural Information Processing Systems 9, NIPS 1996, 155-161. El resultado de la técnica es un conjunto de direcciones de interpolación que varían continuamente y que forman parte de los datos de referencia 35 y se utilizan en la interpolación.
La técnica del aprendizaje automático, independientemente de su tipo, inherentemente también deriva la forma de los vectores característicos 34 que se utilizan para derivar los campos vectoriales de desplazamiento de referencia F (u otras instrucciones de edición de imágenes). Esta es la forma de los vectores de características 34 que se derivan en la etapa S3.
La descripción vuelve ahora al método de la FIGURA 3.
En la etapa S4, al menos un campo de vector de desplazamiento 37 que representa una transformación de un parche de imagen se deriva utilizando el vector de características 34 obtenido en la etapa S3 para buscar los datos de referencia 35. Debido a la derivación del campo vectorial de desplazamiento 37 a partir de los datos de referencia 35, la transformación representada corrige así la mirada que se percibirá cuando se muestre el par de imágenes estereoscópicas 31.
En el caso de que el vector de características 34 comprenda características que son valores en un espacio discreto y los campos vectoriales de desplazamiento de referencia de los datos de referencia 35 comprendan un campo de vector de desplazamiento de referencia asociado con cada valor posible del vector de características en el espacio discreto, luego, el campo de vector de desplazamiento para el parche de imagen se deriva seleccionando el campo de desplazamiento de referencia asociado con el valor real del vector de características derivado 34.
En el caso de que el vector de características 34 comprenda características que son valores discretos de los descriptores locales en un espacio continuo, luego, el campo de vector de desplazamiento para el parche de imagen se deriva interpolando un campo de vector de desplazamiento a partir de los campos de vector de desplazamiento de referencia basándose en la relación entre el valor real del vector de características derivado 34 y los valores de los vectores de características asociados con el desplazamiento de referencia. campos vectoriales. En el caso de que la técnica de aprendizaje automático fuera la regresión de vectores de soporte, esto se puede hacer usando las direcciones de interpolación que forman parte de los datos de referencia 35.
En la etapa S5, cada imagen 31 del par estereoscópico se ajusta transformando los parches de imagen que contienen los ojos izquierdo y derecho de la cabeza de acuerdo con los campos vectoriales de desplazamiento derivados 37. Esto produce un par estereoscópico ajustado de imágenes 38 como se muestra en la FIGURA 4, en el que se ha corregido la mirada. En particular, el ajuste puede realizarse utilizando dos métodos alternativos, como sigue.
Un primer método para realizar la etapa S5 se muestra enFIGURA 6y realizado de la siguiente manera.
En la etapa S5-1, el parche de imagen se transforma en el sistema de coordenadas normalizado de acuerdo con el correspondiente campo vectorial de desplazamiento 37 con respecto a la misma imagen, corrigiendo así la mirada. Como se ha descrito anteriormente, para un campo vectorial de desplazamiento F, la transformación del parche de imagen de la imagen de entrada I(x,y) proporciona la imagen de salida O(x,y) de acuerdo con
O(x, y) = I(x+u(x, y), y+v(x,y))
En la etapa S5-2, la salida del parche de imagen transformada de la etapa S5-1 se transforma fuera del sistema de coordenadas normalizado, de nuevo al sistema de coordenadas original de la imagen 31 correspondiente. Esto se hace utilizando la transformación inversa de la aplicada en la etapa S2-2.
En la etapa S5-3, la salida del parche de imagen transformada de la etapa S5-2 se superpone a la imagen 31 correspondiente. Esto se puede hacer con un reemplazo completo dentro de una región de ojo correspondiente al ojo mismo, y una transición suavizada entre el parche de imagen transformada y la imagen original 31 sobre una región límite alrededor de la región de ojo. La anchura de la región límite puede ser de tamaño fijo o un porcentaje del tamaño del parche de imagen en la imagen original 31.
Un segundo método para realizar la etapa S5 se muestra enFIGURA 7y realizado de la siguiente manera.
En este segundo, método alternativo, la transformación de nuevo al sistema de coordenadas de la imagen 31 correspondiente se produce antes de la transformación del parche de imagen de acuerdo con el campo vectorial de desplazamiento transformado F.
En la etapa S5-4, el campo vectorial de desplazamiento F se transforma fuera del sistema de coordenadas normalizado, de nuevo al sistema de coordenadas original de la imagen 31 correspondiente. Esto se hace utilizando la transformación inversa de la aplicada en la etapa S2-2.
En la etapa S5-5, el parche de imagen 32 en el sistema de coordenadas de la imagen 31 se transforma de acuerdo con el campo vectorial de desplazamiento F que se ha transformado en el mismo sistema de coordenadas en la etapa S5-4. Como se ha descrito anteriormente, para un campo vectorial de desplazamientoF, la transformación del parche de imagen de la imagen de entrada I(x,y) proporciona la imagen de salida O(x,y) de acuerdo con
O(x, y) = I(x+u(x, y), y+v(x,y))
pero esto ahora se realiza en el sistema de coordenadas de la imagen original 31.
La etapa S5-6 es la misma que la S5-3. Por tanto, en la etapa S5-6, la salida del parche de imagen transformada de la etapa S5-5 se superpone a la imagen 31 correspondiente. Esto se puede hacer con un reemplazo completo dentro de una región de ojo correspondiente al ojo mismo, y una transición suavizada entre el parche de imagen transformada y la imagen original 31 sobre una región límite alrededor de la región de ojo. La anchura de la región límite puede ser de tamaño fijo o un porcentaje del tamaño del parche de imagen en la imagen original 31.
LaFIGURA 8representa un método para generar datos de referencia (incluidos datos de referencia 37 del tipo descrito en los ejemplos específicos discutidos anteriormente) para ajustar una representación digital de una región de cabeza. En algunas realizaciones, la representación digital de la región de cabeza comprende o consiste en una imagen de la región de cabeza. En algunas realizaciones, la representación digital de la región de cabeza comprende o consiste en una representación digital tridimensional (que representa, por ejemplo, información geométrica tridimensional). La representación digital tridimensional se puede obtener a partir de mediciones de profundidad, utilizando, por ejemplo, una cámara de tiempo de vuelo. En una realización, la representación digital de la región de cabeza se puede utilizar para proporcionar una visualización generada por ordenador de la región de cabeza. En una realización, el ajuste de la representación digital comprende convertir una representación digital bidimensional de la región de cabeza en una representación digital tridimensional de la región de cabeza.
En el caso de que la representación digital de la región de cabeza (antes del ajuste, después del ajuste, o ambos) comprende una representación digital tridimensional, esto puede proporcionarse de cualquiera de las diversas formas conocidas. Por ejemplo, la representación digital tridimensional puede comprender una nube de puntos, un sistema de partículas o una representación de malla. La representación de malla puede comprender una o más de: una superficie poligonal, una superficie multiresolución, una superficie de subdivisión. La representación digital puede comprender una representación digital tridimensional e información de textura asociada con la representación digital tridimensional, por ejemplo, a través de un mapa de textura. La representación digital puede comprender una representación geométrica tridimensional e información de color (por ejemplo, obtenida de una cámara óptica) alineada con la representación geométrica tridimensional. También se pueden utilizar otras representaciones volumétricas, como sistemas de partículas o definiciones implícitas, como funciones de distancia con signo.
El método comprende una etapa S100 de recibir datos de entrenamiento 100. Los datos de entrenamiento 100 pueden proporcionarse, por ejemplo, a través de una interfaz de comunicaciones 112 (por ejemplo, conectándose a una conexión de datos externa o un dispositivo de almacenamiento) conectada a una unidad de procesamiento de datos 120 que va a realizar el método (como se representa esquemáticamente en la FIGURA 10). Los datos de entrenamiento 100 comprenden un conjunto de parches de entrada. Un parche consiste en una porción objetivo de una representación digital de una región de cabeza. En el caso de que la representación digital comprenda una imagen, el parche puede denominarse como un parche de imagen. Cada parche de entrada (por ejemplo, parche de imagen de entrada) comprende una característica objetivo de la representación digital (por ejemplo, imagen) de la región de cabeza antes del ajuste de la representación digital (por ejemplo, ajuste de la imagen a visualizar) de la región de cabeza. La característica objetivo es la misma para cada parche de entrada. La característica objetivo puede comprender uno o más de los siguientes: una región de ojo que comprende al menos parte de un ojo (como en los ejemplos específicos discutidos anteriormente con referencia a la FIGURA 4, por ejemplo), una región de nariz que comprende al menos parte de una nariz, una región de boca que comprende al menos parte de una boca, una región de mentón que comprende al menos parte de un mentón, y una región de cuello que comprende al menos parte de un cuello. En una realización, cada parche de imagen de entrada comprende una parte de la imagen de la región de cabeza correspondiente a la característica objetivo, tal como la región de ojo mencionada anteriormente, región de nariz, región de boca, región de mentón o región de cuello.
En una realización, la característica objetivo comprende una región de ojo que comprende al menos parte de un ojo y el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza comprende ajustar la dirección de la mirada.
En una realización, la característica objetivo comprende una región de nariz que comprende al menos parte de una nariz y el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza comprende ajustar una forma y/o textura de la nariz (por ejemplo, para hacer que la nariz parezca más pequeña y/o más delgado en una proporción fija, similar al efecto de un "teleobjetivo").
En una realización, la característica objetivo comprende una región de mentón que comprende al menos parte de un mentón y el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza comprende ajustar una forma y/o textura del mentón (por ejemplo, para reducir o eliminar la apariencia del doble mentón).
En una realización, la característica objetivo comprende una región de cuello que comprende al menos parte de un cuello y el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza comprende ajustar una forma y/o textura del cuello (por ejemplo, para reducir o eliminar arrugas).
En una realización, la característica objetivo comprende una región de cabello que comprende cabello y el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza comprende ajustar un color del cabello (por ejemplo, mediante un tono fijo).
En el caso en el que la característica objetivo comprenda una región de ojo, los parches de entrada se pueden obtener usando la metodología descrita anteriormente con referencia a las etapas S2-1 y S2-2, excepto que no necesariamente se requieren pares estereoscópicos de imágenes. Por tanto, los parches de entrada se pueden obtener usando puntos identificados ("puntos de referencia") correspondientes a características de un ojo para localizar la región relevante de la representación digital (por ejemplo, imagen) de la región de cabeza (por ejemplo, que rodea el ojo) y/o la transformación de la parche de entrada en un sistema de coordenadas normalizado, incluyendo la alineación de los puntos de referencia con ubicaciones predeterminadas en el sistema de coordenadas normalizado mediante traslación, rotación y/o escalado.
En algunas realizaciones, los datos de entrenamiento 100 comprenden además un conjunto de parches de salida. Como se ha descrito anteriormente, cada parche consiste en una porción objetivo de una representación digital de una región de cabeza. En el caso de que la representación digital comprenda una imagen, el parche puede denominarse como un parche de imagen. Los parches de salida (por ejemplo, parches de imágenes de salida) están en correspondencia uno a uno con los parches de entrada. Cada parche de salida comprende la característica objetivo de la representación digital (por ejemplo, imagen) de la región de cabeza después del ajuste de la representación digital (por ejemplo, ajuste de la imagen a visualizar) de la región de cabeza. Por tanto, en el caso en el que se deba ajustar una imagen de la región de cabeza para corregir la dirección de la mirada, cada parche de salida comprende una región de ojo que se ha ajustado para que la mirada parezca estar en la dirección deseada (por ejemplo, directamente hacia un observador de destino 24).
El método comprende además una etapa S101 que comprende usar un primer algoritmo de aprendizaje automático para generar primeros datos de referencia 101 usando los datos de entrenamiento 100. Los primeros datos de referencia 101 comprenden instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) para ajustar la representación digital (por ejemplo, imagen) de la región de cabeza para una gama de posibles representaciones digitales (por ejemplo, representaciones digitales que representan diferentes estados de la cabeza, como diferentes posiciones y/u orientaciones, opcionalmente representado como imágenes diferentes) de la región de cabeza.
El método comprende además una etapa S102 que comprende usar un segundo algoritmo de aprendizaje automático para generar segundos datos de referencia 102. El segundo algoritmo de aprendizaje automático utiliza los mismos datos de entrenamiento 100 que el primer algoritmo de aprendizaje automático en la etapa S101. El segundo algoritmo de aprendizaje automático utiliza además los primeros datos de referencia 101 generados por el primer algoritmo de aprendizaje automático en el paso S101. Los segundos datos de referencia 102 comprenden instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) para ajustar la representación digital (por ejemplo, imagen) de la región de cabeza para una gama de posibles representaciones digitales (por ejemplo, diferentes posiciones y/u orientaciones, opcionalmente representado como imágenes diferentes) de la región de cabeza.
En una realización, los primeros datos de referencia 101 comprenden primeras instrucciones de edición (por ejemplo, primeras instrucciones de edición de imágenes) para una gama de posibles configuraciones de la característica objetivo (por ejemplo, diferentes direcciones de la mirada y/o morfologías oculares en el caso en que la característica objetivo comprenda una región de ojo) y primeros instrucciones de selección para seleccionar instrucciones de edición (a partir de las primeras instrucciones de edición) para un parche de entrada particular (por ejemplo, parche de imagen de entrada) en función de la configuración de la característica objetivo del parche de entrada (por ejemplo, la dirección de la mirada particular y/o la morfología del ojo particular de ese parche de entrada).
En una realización, los segundos datos de referencia comprenden segundas instrucciones de edición (por ejemplo, segundas instrucciones de edición de imágenes) para una gama de posibles configuraciones de la característica objetivo y segundas instrucciones de selección para seleccionar instrucciones de edición (a partir de las segundas instrucciones de edición) para un parche de entrada particular (por ejemplo, parche de imagen de entrada) según la configuración de la función de destino del parche de entrada.
La configuración de la característica objetivo de cada parche de entrada puede representarse mediante un vector de características derivado de varios descriptores locales (por ejemplo, descriptores de imágenes locales) del parche de entrada, como se describió anteriormente con referencia a la etapa S3 de la FIGURA 3 para el caso particular donde se procesan pares estereoscópicos de imágenes que contienen regiones del ojo (pero el método es aplicable de manera más general que este caso particular). Como se ha descrito anteriormente, el vector de características puede adoptar diversas formas, pero generalmente está adaptado para que sea adecuado para buscar instrucciones de edición para realizar ajustes de la representación digital (por ejemplo, imagen) de la región de cabeza. En la presente realización, la primera y segunda instrucciones de selección definen cómo se utiliza el vector de características para seleccionar instrucciones de edición para el parche de entrada. En una realización, las instrucciones de edición comprenden un campo de vector de desplazamiento que define cómo se transformará el parche de entrada para realizar el ajuste. El campo vectorial de desplazamiento puede adoptar cualquiera de las formas analizadas anteriormente. Las instrucciones de edición no se limitan a campos vectoriales de desplazamiento, sin embargo. Otras operaciones de edición pueden asociarse adicional o alternativamente con los vectores de características para realizar otros ajustes deseados de la representación digital (por ejemplo, imagen) de la región de cabeza, incluyendo, por ejemplo, ajustes a los colores o intensidades de los píxeles, o cambios a las geometrías subyacentes (por ejemplo, a través de un campo de filtro, campo de ajuste de brillo o campo de fusión de texturas).
En una realización, el primer algoritmo de aprendizaje automático utiliza un primer algoritmo de edición (por ejemplo, un primer algoritmo de edición de imágenes) para definir cómo se aplicarán las primeras instrucciones de edición a un parche de entrada para derivar un parche de salida. El segundo algoritmo de aprendizaje automático utiliza un segundo algoritmo de edición (por ejemplo, un segundo algoritmo de edición de imágenes) para definir cómo se aplicarán las segundas instrucciones de edición a un parche de entrada para derivar un parche de salida. El primer y segundo algoritmos de edición pueden comprender cualquiera de los métodos descritos anteriormente para la etapa implementada S5 de la FIGURA 3, descrita con referencia a las FIGURAS 6 y 7.
De acuerdo con la invención, las segundas instrucciones de edición en los segundos datos de referencia se proporcionan en una representación comprimida. La representación comprimida puede comprender una representación de análisis de componentes principales o una representación de ondas, por ejemplo. En este caso, el primer y segundo algoritmos de edición pueden adaptarse para definir cómo operar eficientemente en este contexto.
En una realización, las segundas instrucciones de edición son componentes de análisis de componentes principales de un análisis de componentes principales de las primeras instrucciones de edición. En este caso, el segundo algoritmo de edición transforma las segundas instrucciones de edición en las primeras instrucciones de edición mediante transformación de análisis de componentes de principio inverso.
En un enfoque alternativo, las segundas instrucciones de edición son componentes de ondícula de las primeras instrucciones de edición. En este caso, el segundo algoritmo de edición transforma las segundas instrucciones de edición en las primeras instrucciones de edición mediante transformada de ondícula inversa.
En una realización, las primeras instrucciones de selección para los primeros datos de referencia pueden seleccionar entre un número mayor de instrucciones de edición alternativas (por ejemplo, instrucciones de edición de imágenes) que las segundas instrucciones de selección para los segundos datos de referencia. Por lo tanto, se puede describir que el primer algoritmo de aprendizaje automático tiene más parámetros de entrada que el segundo algoritmo de aprendizaje automático. El primer algoritmo de aprendizaje automático puede proporcionar una mayor precisión que el segundo algoritmo de aprendizaje automático, pero normalmente funcionará considerablemente más lento. Adicionalmente, las primeras instrucciones de selección pueden ser significativamente más complejas (por ejemplo, implicando álgebra lineal u otras operaciones relativamente intensivas en ordenador) que las segundas instrucciones de selección (donde las instrucciones de selección pueden parecerse a una tabla de consulta computacionalmente sencilla, una combinación de una tabla de consulta y una estructura de árbol, o similar).
En una realización particular, el primer algoritmo de aprendizaje automático comprende una red neuronal (conocida por proporcionar una precisión relativamente alta, pero a expensas de demandas computacionales relativamente altas). En tal realización, y otras, el segundo algoritmo de aprendizaje automático puede comprender un bosque de regresión (conocido por proporcionar una mayor eficiencia computacional, pero a expensas de una precisión reducida). Los inventores han descubierto que la combinación de los dos algoritmos de aprendizaje automático diferentes proporciona datos de referencia que pueden usarse en un método de ajuste con alta eficiencia y al mismo tiempo lograr una alta precisión de ajuste. El primer algoritmo de aprendizaje automático puede comprender alternativamente una máquina de vectores de soporte o una red generativa adversaria (GAN). El segundo algoritmo de aprendizaje automático puede comprender alternativamente helechos de regresión, centros de agrupación, una tabla de búsqueda o bancos de filtros separables. En una realización, el primer algoritmo de aprendizaje automático comprende una primera red neuronal y el segundo algoritmo de aprendizaje automático comprende una segunda red neuronal, en donde la segunda red neuronal comprende menos capas y/o campos de convolución más pequeños que la primera red neuronal.
LaFIGURA 9representa esquemáticamente el flujo de datos en un ejemplo detallado del método de generación de datos de referencia de la FIGURA 8. El primer y segundo algoritmo de aprendizaje automático están denominados respectivamente MLA1 y MLA2. El primer algoritmo de aprendizaje automático MLA1 recibe los datos de entrenamiento (etiquetados TD) y, opcionalmente, el primer algoritmo de edición EA1 y una métrica de similitud SM. La métrica de similitud SM proporciona un valor numérico para medir la similitud entre una imagen ajustada y una imagen deseada y puede usarse para controlar el primer algoritmo de aprendizaje automático MLA1 y el segundo algoritmo de aprendizaje automático MLA2 para variar el grado en que se penalizan las diferencias según la naturaleza de las diferencias. Por ejemplo, la métrica de similitud SM puede configurarse para penalizar reducciones en porciones de imágenes que se desea mantener (por ejemplo, la esclerótica en el caso de que se ajusten las regiones del ojo) o desviaciones de características ajustadas de una forma conocida (por ejemplo, desviaciones en la forma de un iris de una forma elíptica) o de una forma que se observa en los datos de entrenamiento. Como alternativa o adicionalmente, los datos de entrenamiento pueden comprender una diferencia absoluta o cuadrada promedio entre la imagen ajustada y un objetivo, o una diferencia absoluta o cuadrada promedio entre representaciones de bajo nivel de la imagen ajustada y el objetivo, como funciones de bajo nivel de una red de aprendizaje profundo (como se analizó anteriormente). De acuerdo con la invención, el primer algoritmo de edición EA1 recibe datos auxiliares AuxD, que definen un conjunto básico utilizado para proporcionar una representación comprimida de instrucciones de edición de imágenes. El primer algoritmo de aprendizaje automático MLA1 genera las primeras instrucciones de selección LA1 y las primeras instrucciones de edición ED1. El segundo algoritmo de aprendizaje automático MLA2 recibe los mismos datos de entrenamiento TD y, opcionalmente, el segundo algoritmo de edición EA2 y la métrica de similitud SM. El segundo algoritmo de aprendizaje automático MLA2 recibe además las primeras instrucciones de edición ED1. El segundo algoritmo de aprendizaje automático genera segundas instrucciones de selección LA2 y segundas instrucciones de edición ED2.
El segundo algoritmo de aprendizaje automático, MLA2, obtiene así que las instrucciones de edición coincidan o se aproximen, y no tiene que inferirlas a partir de las imágenes de entrada coincidentes como MLA1.
LaFIGURA 10representa un dispositivo 110 para generar los datos de referencia. El dispositivo 110 comprende una unidad de procesamiento de datos 120 configurada para realizar el método de generar los datos de referencia según cualquiera de las realizaciones divulgadas. La unidad de procesamiento de datos 110 puede implementarse mediante un procesador que ejecuta un programa informático adecuado o mediante hardware dedicado o mediante alguna combinación de software y hardware. La entrada/salida de datos puede proporcionarse a través de una interfaz de comunicaciones 112. Cuando se utilice un programa informático, el programa informático puede comprender instrucciones en cualquier lenguaje adecuado y puede almacenarse en un medio de almacenamiento legible por ordenador, que puede ser de cualquier tipo, por ejemplo: un medio de grabación que se inserta en una unidad del sistema informático y que puede almacenar información magnéticamente, ópticamente u optomagnéticamente; un medio de grabación fijo del sistema informático tal como un disco duro; o una memoria de ordenador.
LaFIGURA 11representa un método para ajustar una representación digital de una región de cabeza. En el ejemplo mostrado, la representación digital comprende una imagen de una región de cabeza, pero el método se puede adaptar para utilizar cualquiera de las representaciones digitales analizadas anteriormente (por ejemplo, para procesar adicional o alternativamente representaciones digitales tridimensionales). El método puede usar datos de referencia generados usando cualquiera de los métodos de generación de datos de referencia divulgados en el presente documento o puede usar datos de referencia generados usando otros métodos.
El método comprende una etapa S200 en la que se identifica un parche objetivo (en este caso un parche de imagen) en una imagen 200 de una región de cabeza que se va a ajustar. El parche objetivo comprende una característica objetivo de la región de cabeza. La característica objetivo puede adoptar cualquiera de las formas analizadas anteriormente. La etapa S200 puede comprender opcionalmente detectar una ubicación de la cabeza y/o del ojo como se describe anteriormente con referencia a la etapa S1 de la FIGURA 3. La etapa S200 puede comprender además opcionalmente identificar parches de imagen usando la metodología descrita anteriormente con referencia a las etapas S2-1 y S2-2 de la FIGURA 5, excepto que no es necesario identificar necesariamente los parches de imagen como pares estereoscópicos (aunque pueden identificarse si se desea).
En la etapa S201, un vector de características se deriva de varios descriptores locales (por ejemplo, descriptores de imágenes locales) del parche objetivo (por ejemplo, imagen). El vector de características se puede derivar usando la metodología descrita anteriormente con referencia a la etapa S3 de la FIGURA 3. El vector de características puede adoptar cualquiera de las formas analizadas anteriormente.
En la etapa S202, el vector de características se usa para seleccionar instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) a partir de los datos de referencia 102. Los datos de referencia 102 comprenden instrucciones de edición para un rango de valores posibles del vector de características (que representan, por ejemplo, diferentes direcciones de mirada y/o morfologías oculares en el caso en que la característica objetivo comprenda una región de ojo).
En la etapa S203, las instrucciones de edición seleccionadas se aplican al parche objetivo para ajustar la imagen de la región de cabeza (por ejemplo, para corregir la dirección de la mirada).
De acuerdo con la invención, las instrucciones de edición (por ejemplo, instrucciones de edición de imágenes) se proporcionan en una representación comprimida, que comprende, por ejemplo, uno o más de los siguientes: una representación de análisis de componentes principales; una representación de ondícula; componentes de transformada de coseno discreta y/o de Fourier; centros de agrupación. El uso de una representación comprimida reduce los requisitos de almacenamiento de datos y ancho de banda durante el uso de las instrucciones de edición de imágenes para realizar el ajuste de la representación digital (por ejemplo, imagen) de la región de cabeza. Como alternativa o adicionalmente, los datos de referencia que contienen las instrucciones de edición pueden generarse utilizando cualquiera de las realizaciones descritas en el presente documento. De acuerdo con la invención, los datos de referencia comprenden los segundos datos de referencia discutidos anteriormente
Se entiende que la referencia a las instrucciones de edición en el presente documento abarca cualquier dato que pueda usarse para definir cómo se debe ajustar una representación digital (por ejemplo, una imagen) de una región de cabeza para lograr un objetivo deseado (por ejemplo, corrección de la mirada o conversión de una representación digital bidimensional a una representación digital tridimensional o ambas). Las instrucciones de edición pueden comprender datos que pueden usarse directamente para modificar una representación digital (por ejemplo, una imagen), tal como un campo vectorial, o datos intermedios como un conjunto de parámetros de aprendizaje automático que se pueden usar para generar datos que se pueden usar directamente para modificar la representación digital (por ejemplo, una imagen).
LaFIGURA 12representa esquemáticamente el flujo de datos en un ejemplo detallado de un método para ajustar una representación digital de una región de cabeza en el caso en que la representación digital comprenda una imagen, utilizando datos de referencia generados según el ejemplo detallado de la FIGURA 9. El ID de datos de entrada se proporciona desde un sistema de sensor SS (por ejemplo, que comprende una o más cámaras). El ID de datos de entrada se introduce en las segundas instrucciones de selección LA2 para seleccionar instrucciones de edición apropiadas para el ID de datos de entrada de las segundas instrucciones de edición ED2. Las instrucciones de edición seleccionadas, que según la invención se proporcionan en una representación comprimida (por ejemplo, componentes de análisis de componentes principales o componentes de ondícula) a partir de las segundas instrucciones de edición comprimidas ED2, luego son utilizados por el segundo algoritmo de edición EA2, en combinación con los datos auxiliares AuxD que proporcionan la base establecida para la representación comprimida, para proporcionar datos de salida OD. Los datos de salida OD comprenden una imagen ajustada de la zona de la cabeza y se muestran a través de una pantalla DS.
Como se ha descrito anteriormente, el método de ajustar una representación digital de una región de cabeza (por ejemplo, una imagen de una región de cabeza) puede implementarse en un procesador de imágenes 30 proporcionado en varios dispositivos diferentes. A modo de ejemplo no limitante, a continuación se describirá una implementación particular en un sistema de telecomunicaciones que se muestra en laFIGURA 13y ordenados de la siguiente manera.
En esta implementación, el dispositivo de origen 10 y el dispositivo de destino 10 se comunican a través de dicha red de telecomunicaciones 50. Para comunicación a través de una red de telecomunicaciones 50, el dispositivo de origen 10 incluye una interfaz de telecomunicaciones 17 y el dispositivo de destino 20 incluye una interfaz de telecomunicaciones 27.
En esta implementación, el procesador de imágenes 30 se proporciona en el dispositivo de origen 10 y se proporciona con una imagen de una región de cabeza directamente desde un sistema de cámara 12 (en este ejemplo, un par de imágenes estereoscópicas). La interfaz de telecomunicaciones 17 está dispuesta para transmitir las imágenes ajustadas 38 a través de la red de telecomunicaciones 50 al dispositivo de destino 20 para su visualización en el mismo.
El dispositivo de destino 20 incluye un módulo de visualización de imágenes 28 que controla la visualización 26. Las imágenes ajustadas 38 se reciben en el dispositivo de destino 20 mediante la interfaz de telecomunicaciones 27 y se suministran al módulo de visualización de imágenes 28, lo que hace que se muestren en la pantalla 26.
Los siguientes elementos del dispositivo de destino 20 se incluyen opcionalmente en el caso de que el método corrija la mirada de un observador de destino 24 en una ubicación del observador distinta de una posición de visualización normal perpendicular al centro de la ubicación de visualización. En este caso, el dispositivo de destino 20 incluye un sistema de cámara 23 y un módulo de ubicación del observador 29. El sistema de cámara 23 captura una imagen del observador de destino 24. El módulo de ubicación del observador 29 deriva los datos de ubicación 40. El módulo de ubicación del observador 29 incluye un módulo de seguimiento de la cabeza que utiliza la salida del sistema de cámara 23 para detectar la ubicación del observador de destino 24. Donde la ubicación relativa del observador también tiene en cuenta la ubicación de la imagen mostrada en la pantalla 21, el módulo de ubicación del observador 29 obtiene la ubicación de la imagen mostrada en la pantalla 21 del módulo de visualización de imágenes 28. La interfaz de telecomunicaciones 17 está dispuesta para transmitir los datos de ubicación 40 a través de la red de telecomunicaciones 50 al dispositivo de origen 10 para su uso.
Aunque la descripción anterior se refiere a un método aplicado a imágenes suministradas desde un dispositivo de origen 10 a un dispositivo de destino 20, el método puede aplicarse igualmente a imágenes suministradas en la dirección opuesta desde el dispositivo de destino 20 al dispositivo de origen 10, en cuyo caso el dispositivo de destino 20 se convierte efectivamente en el "dispositivo de origen" y el dispositivo de origen 10 se convierte efectivamente en el "dispositivo de destino". Cuando las imágenes se suministran bidireccionalmente, las etiquetas "origen" y "destino" pueden aplicarse a ambos dispositivos, dependiendo de la dirección de comunicación que se considere.
LaFIGURA 14representa una realización adicional de un método para generar datos de referencia para ajustar una representación digital de una región de cabeza usando un marco del tipo representado en la FIGURA 8. En esta realización, los datos de entrenamiento 100 recibidos en la etapa S100 (FIGURA 8) comprenden un conjunto de representaciones digitales de entrada de una región de cabeza (por ejemplo, parches de entrada, cada uno de los cuales consta de una porción objetivo de una representación digital bidimensional de la región de cabeza, tal como una imagen capturada).
En la etapa S101, se entrena un primer algoritmo de aprendizaje automático MLA1 utilizando los datos de entrenamiento 100, el entrenamiento hace que el primer algoritmo de aprendizaje automático MLA1 sea capaz de realizar un ajuste de una representación digital de una región de cabeza. En una realización, el ajuste de la representación digital comprende convertir de una representación digital bidimensional a una representación digital tridimensional (por ejemplo, convertir de una imagen 2D de una porción de una región de cabeza a una malla 3D de una porción de la región de cabeza). A continuación, se utiliza el primer algoritmo de aprendizaje automático entrenado MLA1 para generar los primeros datos de referencia 101. Los primeros datos de referencia 101 comprenden una representación digital ajustada de la región de cabeza para cada uno de al menos un subconjunto de las representaciones digitales de entrada en los datos de entrenamiento 100. Cada representación digital ajustada se obtiene realizando el ajuste para el que fue entrenado el primer algoritmo de aprendizaje automático MLA1.
En la etapa S102, un segundo algoritmo de aprendizaje automático MLA2, se entrena usando al menos un subconjunto de los datos de entrenamiento 100 usados para entrenar el primer algoritmo de aprendizaje automático MLA2 y los primeros datos de referencia 101. El entrenamiento hace que el segundo algoritmo de aprendizaje automático MLA2 sea capaz de realizar el mismo ajuste de una representación digital de una región de cabeza que el primer algoritmo de aprendizaje automático MLA1.
En la realización particular de la FIGURA 14, el primer algoritmo de aprendizaje automático MLA1 comprende un primer codificador 306A y un primer predictor 308A. Los datos de entrenamiento 100 se introducen en el primer codificador 306A. En esta realización, el primer codificador 306A comprende un algoritmo de extracción de características. El algoritmo de extracción de características deriva valores informativos y no redundantes de los datos de entrenamiento 100 (es decir, extrae características significativas de los datos de entrenamiento 100). Ejemplos de algoritmos de extracción de características incluyen redes neuronales convolucionales, Análisis de componentes principales, SIFT (Transformación de características invariantes de escala). Una salida del primer codificador 306A se introduce en un primer predictor 308A. El primer predictor 308A genera una versión ajustada de cada representación digital de entrada en los datos de entrenamiento 100 en función de la salida del primer codificador 306A (por ejemplo, características extraídas por el primer codificador 306A). En esta realización, cada representación digital de entrada comprende una representación digital bidimensional (por ejemplo, una imagen bidimensional) y la versión ajustada de cada representación digital de entrada comprende una representación digital tridimensional (por ejemplo, una malla). Cada representación digital tridimensional se introduce en un procesador 310. El renderizador 310 sintetiza una o más representaciones digitales bidimensionales correspondientes a cada representación digital tridimensional de entrada (por ejemplo, una o más imágenes fotorrealistas de la región de cabeza definida por la representación digital tridimensional). La salida del procesador 310 luego se ingresa a un segundo codificador 306B. El segundo codificador 306B puede ser idéntico al primer codificador 306A. Una salida del segundo codificador 306B se introduce en un segundo predictor 308B. El segundo predictor 308B puede ser idéntico al primer predictor 308A. Se proporciona un primer regularizador 314 que compara la salida del primer codificador 306A con la salida del segundo codificador 306B e impone una o más primeras restricciones predeterminadas. Se proporciona un segundo regularizador 316 que compara la salida del primer predictor 308A con la salida del segundo predictor 308B e impone una o más segundas restricciones predeterminadas. El primer regularizador 314 y el segundo regularizador 316 pueden usar un conjunto de restricciones semánticamente significativas (ejemplos de las primeras restricciones y segundas restricciones) o información adicional para ayudar a alcanzar una solución deseable y evitar el sobreajuste. Las restricciones pueden ayudar a garantizar que las representaciones digitales tridimensionales generadas tengan un aspecto natural, por ejemplo, al requerir altos niveles de niveles naturales de suavidad. Usando esta arquitectura, el primer algoritmo de aprendizaje automático MLA1 actualiza iterativamente las propiedades del primer predictor 308A y el segundo predictor 308B (por ejemplo, ajustando parámetros tales como pesos que definen la operación del predictor) para maximizar la coincidencia entre las salidas del primer y segundo codificadores (según lo medido por el primer regularizador 314) sujeto a las primeras restricciones y para maximizar la coincidencia entre las salidas del primer y segundo predictores (según lo medido por el segundo regularizador 316) sujeto a las segundas restricciones. En otras realizaciones, el primer codificador 306<a>y el segundo codificador 306B también pueden actualizarse iterativamente. El entrenamiento del primer algoritmo de aprendizaje automático MLA1 comprende así utilizar iterativamente un proceso de representación para generar una representación digital bidimensional a partir de una representación digital tridimensional generada por el primer algoritmo de aprendizaje automático MLA1 y comparar la representación digital generada con una representación digital correspondiente. en los datos de entrenamiento. Una vez que se ha logrado la coincidencia o se ha realizado un número predeterminado de iteraciones, el primer algoritmo de aprendizaje automático MLA1 se considera entrenado y la salida resultante del segundo predictor 308B se puede usar para proporcionar los primeros datos de referencia 101 (que en esta realización comprende representaciones digitales tridimensionales correspondientes a las representaciones bidimensionales de entrada en los datos de entrenamiento 100).
Como una extensión, se pueden generar nuevas representaciones digitales bidimensionales y/o tridimensionales aplicando instrucciones de edición a representaciones digitales bidimensionales (que se convierten en representaciones digitales tridimensionales mediante el primer algoritmo de aprendizaje automático entrenado MLA1) o a representaciones digitales tridimensionales generadas por el primer algoritmo de aprendizaje automático entrenado MLA1). En este caso, los primeros datos de referencia 101 pueden incluir las representaciones digitales bidimensionales y/o representaciones tridimensionales después de la modificación mediante las instrucciones de edición.
Un conjunto de representaciones digitales tridimensionales así generadas como primeros datos de referencia 101 y representaciones digitales bidimensionales correspondientes (por ejemplo, directamente a partir de los datos de entrenamiento 100 como se muestra en la FIGURA 14) se utilizan para entrenar el segundo algoritmo de aprendizaje automático MLA2 (entrada en bloque 304). En esta realización, el segundo algoritmo de aprendizaje automático MLA2 también comprende un codificador 306C y un predictor 308C, que puede configurarse como se describe anteriormente para el primer algoritmo de aprendizaje automático MLA1. El predictor 308C (y, opcionalmente, el codificador 308C) puede actualizarse (entrenarse) iterativamente usando un regularizador 318 basado en los datos de entrenamiento de entrada 100 y los primeros datos de referencia 101. Por tanto, el segundo algoritmo de aprendizaje automático MLA2 aprende a convertir entre una representación digital bidimensional y una representación digital tridimensional basándose en el mapeo entre representaciones digitales bidimensionales y representaciones digitales tridimensionales derivadas usando el procesador 310 en el primer algoritmo de aprendizaje automático MLA1. Siempre que el mapeo derivado del primer algoritmo de aprendizaje automático MLA1 sea fiable, el segundo algoritmo de aprendizaje automático, MLA2, podrá proporcionar una conversión precisa entre representaciones digitales bidimensionales y representaciones digitales tridimensionales utilizando un modelo de aprendizaje automático entrenado más simple (que puede almacenarse y operarse utilizando menos recursos informáticos que el primer algoritmo de aprendizaje automático, MLA1).
LaFIGURA 15representa el flujo de datos en una implementación de ejemplo de una realización en la que un segundo algoritmo de aprendizaje automático MLA2 previamente entrenado se actualiza (es decir, se entrena más) en o cerca de la velocidad de fotogramas de datos de entrada (es decir, en línea). En realizaciones de este tipo, se puede recibir una pluralidad de representaciones digitales (por ejemplo, imágenes) de la región de cabeza como ID de datos de entrada (por ejemplo, desde un sistema sensor SS como se describe anteriormente) y ajustar (por ejemplo, como se describe anteriormente con referencia a las FIGURAS 11, 12 y 14) para proporcionar datos de salida OD que se muestran posteriormente a través de la pantalla DS (como se describe anteriormente con referencia a la FIGURA 12). El ID de datos de entrada puede comprender un conjunto de parches de entrada, comprendiendo cada parche de entrada una característica objetivo de una representación digital de una región de cabeza antes del ajuste de la representación digital de la región de cabeza, en donde la característica objetivo es la misma para cada parche de entrada. El ajuste se puede realizar utilizando una versión previamente entrenada del segundo algoritmo de aprendizaje automático MLA2, opcionalmente en combinación con un modelo geométrico. El ID de los datos de entrada puede comprender representaciones digitales capturadas en diferentes momentos del tiempo, tales como diferentes fotogramas en una secuencia de imágenes obtenidas por el sistema sensor SS en un modo de captura de vídeo. En una realización, el método comprende actualizar el segundo algoritmo de aprendizaje automático MLA2 previamente entrenado utilizando primeros datos de referencia (por ejemplo, instrucciones de edición) generados por el primer algoritmo de aprendizaje automático MLA1 utilizando una o más de las representaciones digitales recibidas (a partir del ID de datos de entrada). Los primeros datos de referencia pueden comprender un conjunto de instrucciones de edición en correspondencia uno a uno con los parches de entrada, siendo cada instrucción de edición para ajustar la representación digital de la región de cabeza. En el ejemplo mostrado en la FIGURA 15, los primeros datos de referencia para la actualización se generan en un proceso en segundo plano y el segundo algoritmo de aprendizaje automático MLA2 se actualiza a una velocidad de cuadros de datos de entrada o cerca de ella (es decir, en línea).
Por lo tanto, la actualización utiliza una versión previamente entrenada del primer algoritmo de aprendizaje automático MLA1 (que, como se ha descrito anteriormente, está configurado para proporcionar datos de referencia más detallados a expensas de mayores demandas computacionales, con respecto al segundo algoritmo de aprendizaje automático MLA2) para generar primeros datos de referencia que se usan para actualizar el segundo algoritmo de aprendizaje automático MLA2. Cuando el primer algoritmo de aprendizaje automático MLA1 es más lento que el segundo algoritmo de aprendizaje automático MLA2 (que normalmente será el caso cuando el primer algoritmo de aprendizaje automático MLA1 está configurado para proporcionar datos de referencia más detallados que el segundo algoritmo de aprendizaje automático MLA2), solo se utiliza un subconjunto del ID de datos de entrada (que comprende las representaciones digitales recibidas y ajustadas) para actualizar el segundo algoritmo de aprendizaje automático MLA2, permitiendo así que el proceso de actualización se mantenga al día con el ajuste de la ID de los datos de entrada mediante el segundo algoritmo de aprendizaje automático MLA2 para proporcionar la OD de los datos de salida. Se puede utilizar cualquiera de las diversas técnicas conocidas para realizar la actualización del segundo algoritmo de aprendizaje automático MLA2. Por ejemplo, la actualización en línea puede realizarse como se describe en Amir Saffari, Christian Leistner, Jakob Santner, Martín Godec y Horst Bischof, "On-line Random Forests", en el 3rd IEEE ICCV Workshop on Online Computer Vision, 2009, o como se describe en Online Deep Learning: Learning Deep Neural Networks on the Fly, Doyen Sahoo, Quang Pham, Jing Lu, Steven C.H., Hoi School of Information Systems, Singapore Management University, https://arxiv.org/pdf/1711.03705.pdf. Por lo tanto, el segundo algoritmo de aprendizaje automático MLA2 se puede mejorar gradualmente durante su uso, a medida que el sistema encuentra y procesa más ID de datos de entrada.

Claims (15)

REIVINDICACIONES
1. Un método implementado por ordenador para generar datos de referencia para ajustar una representación digital de una región de cabeza, comprendiendo el método:
recibir datos de entrenamiento (100, TD) que comprenden:
un conjunto de parches de entrada, comprendiendo cada parche de entrada una característica objetivo de una representación digital de una región de cabeza antes del ajuste de la representación digital de la región de cabeza, en donde la característica objetivo es la misma para cada parche de entrada;
un conjunto de parches de salida en correspondencia uno a uno con los parches de entrada, comprendiendo cada parche de salida la característica objetivo de la representación digital de la región de cabeza después del ajuste de la representación digital de la región de cabeza; y
un conjunto básico utilizado para proporcionar una representación comprimida de instrucciones de edición;
usar un primer algoritmo de aprendizaje automático (MLA1) para generar primeros datos de referencia (101) usando los datos de entrenamiento (100, TD), comprendiendo los primeros datos de referencia (101) instrucciones de edición para ajustar la representación digital de la región de cabeza para una gama de posibles representaciones digitales de la región de cabeza; y
usar un segundo algoritmo de aprendizaje automático (MLA2) para generar segundos datos de referencia (102) usando los mismos datos de entrenamiento (100, TD) como el primer algoritmo de aprendizaje automático (MLA1) y los primeros datos de referencia (101) generados por el primer algoritmo de aprendizaje automático (MLA1), comprendiendo los segundos datos de referencia (102) instrucciones de edición para ajustar la representación digital de la región de cabeza para una gama de posibles representaciones digitales de la región de cabeza, en donde las segundas instrucciones de edición (ED2) en los segundos datos de referencia (102) se proporcionan en la representación comprimida utilizando el conjunto básico.
2. El método de la reivindicación 1, en donde:
los primeros datos de referencia (101) comprenden primeras instrucciones de edición (ED1) para una gama de posibles configuraciones de la característica objetivo y primeras instrucciones de selección (LA1) para seleccionar instrucciones de edición para un parche de entrada particular a partir de las primeras instrucciones de edición (ED1) basadas en la configuración de la característica objetivo del parche de entrada; y
los segundos datos de referencia (102) comprenden segundas instrucciones de edición (ED2) para una variedad de posibles configuraciones de la característica objetivo y segundas instrucciones de selección (LA2) para seleccionar instrucciones de edición para un parche de entrada particular a partir de las segundas instrucciones de edición de imágenes basadas en la configuración de la característica objetivo del parche de entrada,
en donde, opcionalmente: la configuración de la característica objetivo de cada parche de entrada está representada por un vector de características derivado de varios descriptores locales del parche de entrada, y la primera y segunda instrucciones de selección definen cómo se usa el vector de características para seleccionar instrucciones de edición para el parche de entrada.
3. El método de la reivindicación 2, en donde las instrucciones de edición comprenden:
un campo vectorial de desplazamiento que define cómo se transformará el parche de entrada o un campo de filtro, un campo de ajuste de brillo o un campo de fusión de texturas.
4. El método de la reivindicación 2 o 3, en donde:
el primer algoritmo de aprendizaje automático (MLA1) utiliza un primer algoritmo de edición (EA1) para definir cómo se aplicarán las primeras instrucciones de edición (ED1) a un parche de entrada para derivar un parche de salida; y
el segundo algoritmo de aprendizaje automático (MLA2) utiliza un segundo algoritmo de edición (EA2) para definir cómo se aplicarán las segundas instrucciones de edición (ED2) a un parche de entrada para derivar un parche de salida.
5. El método de la reivindicación 4, en donde:
las segundas instrucciones de edición (ED2) son componentes de análisis de componentes principales de un análisis de componentes principales de las primeras instrucciones de edición (ED1); y el segundo algoritmo de edición de imágenes (EA2) está configurado para transformar las segundas instrucciones de edición (ED2) en las primeras instrucciones de edición (ED1) mediante transformación de análisis de componentes de principio inverso; o
las segundas instrucciones de edición (ED2) son componentes de ondícula de las primeras instrucciones de edición (ED1); y el segundo algoritmo de edición (EA2) está configurado para transformar las segundas instrucciones de edición (ED2) en las primeras instrucciones de edición (ED1) mediante transformada de ondícula inversa.
6. El método de cualquiera de las reivindicaciones 2-5, en donde las primeras instrucciones de selección (LA1) para los primeros datos de referencia (101) pueden seleccionar entre un número mayor de instrucciones de edición alternativas que las segundas instrucciones de selección (LA2) para los segundos datos de referencia (102).
7. El método de cualquiera de las reivindicaciones 1-6, en donde el primer algoritmo de aprendizaje automático (MLA1) comprende una primera red neuronal y el segundo algoritmo de aprendizaje automático (MLA2) comprende una segunda red neuronal, en donde la segunda red neuronal comprende menos capas y/o campos de convolución más pequeños que la primera red neuronal.
8. El método de cualquier reivindicación anterior, en donde la característica objetivo comprende uno o más de los siguientes: una región de ojo que comprende al menos parte de un ojo, una región de nariz que comprende al menos parte de una nariz, una región de boca que comprende al menos parte de una boca, una región de mentón que comprende al menos parte de un mentón, una región de cuello que comprende al menos parte de un cuello, y una región de cabello que comprende cabello, en donde, opcionalmente:
la característica objetivo comprende una región de ojo que comprende al menos parte de un ojo y el ajuste de la representación digital de la región de cabeza comprende ajustar la dirección de la mirada;
la característica objetivo comprende una región de nariz que comprende al menos parte de una nariz y el ajuste de la representación digital de la región de cabeza comprende ajustar una forma y/o textura de la nariz;
la característica objetivo comprende una región de mentón que comprende al menos parte de un mentón y el ajuste de la representación digital de la región de cabeza comprende ajustar una forma y/o textura del mentón;
la característica objetivo comprende una región de cuello que comprende al menos parte de un cuello y el ajuste de la representación digital de la región de cabeza comprende ajustar una forma y/o textura del cuello; y/o la característica objetivo comprende una región de cabello que comprende cabello y el ajuste de la representación digital de la región de cabeza comprende ajustar un color del cabello.
9. El método de cualquier reivindicación anterior, en donde la representación comprimida comprende uno o más de los siguientes: una representación de análisis de componentes principales; una representación de ondícula; componentes de transformada de coseno discreta y/o de Fourier; centros de agrupación.
10. Un método para ajustar una representación digital de una región de cabeza, comprendiendo el método
recibir una representación digital de una región de cabeza; y
usar datos de referencia que comprenden instrucciones de edición para ajustar la representación digital de la región de cabeza, en el que los datos de referencia comprenden los segundos datos de referencia generados mediante el método de cualquiera de las reivindicaciones 1 a 9.
11. El método de la reivindicación 10, que comprende:
identificar un parche objetivo en la representación digital de la región de cabeza, comprendiendo el parche objetivo una característica objetivo de la representación digital de la región de cabeza;
derivar un vector de características a partir de varios descriptores locales del parche objetivo;
usar el vector de características para seleccionar instrucciones de edición a partir de los datos de referencia, comprendiendo los datos de referencia instrucciones de edición para un rango de valores posibles del vector de características; y
aplicar las instrucciones de edición seleccionadas al parche de destino para ajustar la representación digital de la región de cabeza.
12. El método de la reivindicación 10 u 11, en donde se reciben y ajustan una pluralidad de representaciones digitales de la región de cabeza, siendo capturada cada representación digital de la región de cabeza en un momento diferente, y el método comprende además actualizar el segundo algoritmo de aprendizaje automático (MLA2) usando instrucciones de edición generadas por el primer algoritmo de aprendizaje automático (MLA1) usando uno o más de los recibidos y representaciones digitales ajustadas, en donde la actualización del segundo algoritmo de aprendizaje automático (MLA2) se realiza opcionalmente en o cerca de la velocidad de fotogramas de datos de entrada y, opcionalmente, solo se utiliza un subconjunto de las representaciones digitales recibidas y ajustadas para actualizar el segundo algoritmo de aprendizaje automático (MLA2).
13. Un programa informático capaz de ser ejecutado por un procesador y dispuesto durante la ejecución para provocar que el procesador realice un método según cualquiera de las reivindicaciones anteriores.
14. Un medio de almacenamiento legible por ordenador que almacena un programa informático de acuerdo con la reivindicación 13.
15. Un dispositivo para generar datos de referencia para ajustar una representación digital de una región de cabeza, comprendiendo el dispositivo una unidad de procesamiento de datos (120) dispuesta para:
recibir datos de entrenamiento (100, TD) que comprenden:
un conjunto de parches de entrada, comprendiendo cada parche de entrada información sobre una característica objetivo de una representación digital de la región de cabeza antes del ajuste de la representación digital de la región de cabeza, en donde la característica objetivo es la misma para cada parche de entrada; y un conjunto de parches de salida en correspondencia uno a uno con los parches de entrada, comprendiendo cada parche de salida la característica objetivo de la representación digital de la región de cabeza después del ajuste de la representación digital de la región de cabeza;
un conjunto básico utilizado para proporcionar una representación comprimida de instrucciones de edición;
utilizar un primer algoritmo de aprendizaje automático (MLA1) para generar los primeros datos de referencia (101) utilizando los datos de entrenamiento (100, TD), comprendiendo los primeros datos de referencia (101) instrucciones de edición para ajustar la representación digital de la región de cabeza para una gama de posibles representaciones digitales de la región de cabeza; y
usar un segundo algoritmo de aprendizaje automático (MLA2) para generar segundos datos de referencia (102) usando los mismos datos de entrenamiento (100, TD) como el primer algoritmo de aprendizaje automático (MLA1) y los primeros datos de referencia (101) generados por el primer algoritmo de aprendizaje automático (MLA1), comprendiendo los segundos datos de referencia (102) instrucciones de edición para ajustar la representación digital de la región de cabeza para una gama de posibles representaciones digitales de la región de cabeza, en donde las segundas instrucciones de edición (ED2) en los segundos datos de referencia (102) se proporcionan en la representación comprimida utilizando el conjunto básico.
ES18844651T 2017-08-08 2018-08-07 Ajuste de una representación digital de una región de cabeza Active ES2967691T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762542661P 2017-08-08 2017-08-08
US201762543587P 2017-08-10 2017-08-10
PCT/US2018/045648 WO2019032604A1 (en) 2017-08-08 2018-08-07 ADJUSTING A DIGITAL REPRESENTATION OF A HEADQUARTERS

Publications (1)

Publication Number Publication Date
ES2967691T3 true ES2967691T3 (es) 2024-05-03

Family

ID=65271511

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18844651T Active ES2967691T3 (es) 2017-08-08 2018-08-07 Ajuste de una representación digital de una región de cabeza

Country Status (5)

Country Link
US (3) US10740985B2 (es)
EP (2) EP4293574A3 (es)
CN (1) CN111183405A (es)
ES (1) ES2967691T3 (es)
WO (1) WO2019032604A1 (es)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713785B2 (en) * 2017-02-13 2020-07-14 Siemens Healthcare Gmbh Image quality assessment system and method
JP7294402B2 (ja) * 2019-03-04 2023-06-20 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
WO2020180134A1 (ko) * 2019-03-06 2020-09-10 한국전자통신연구원 이미지 수정 시스템 및 이의 이미지 수정 방법
CN109871828B (zh) * 2019-03-15 2022-12-02 京东方科技集团股份有限公司 视频识别方法和识别装置、存储介质
EP3742346A3 (en) * 2019-05-23 2021-06-16 HTC Corporation Method for training generative adversarial network (gan), method for generating images by using gan, and computer readable storage medium
US11347308B2 (en) * 2019-07-26 2022-05-31 Samsung Electronics Co., Ltd. Method and apparatus with gaze tracking
US11475608B2 (en) 2019-09-26 2022-10-18 Apple Inc. Face image generation with pose and expression control
US11145074B2 (en) * 2019-10-17 2021-10-12 Toyota Research Institute, Inc. Systems and methods for depth estimation using monocular images
WO2021093956A1 (en) * 2019-11-14 2021-05-20 Huawei Technologies Co., Ltd. A device and method for image processing
WO2021112517A1 (en) * 2019-12-06 2021-06-10 Samsung Electronics Co., Ltd. Method and electronic device for description parameter based modification of images
CN111414997B (zh) * 2020-03-27 2023-06-06 中国人民解放军空军工程大学 一种基于人工智能的用于战场目标识别的方法
US11844380B2 (en) * 2021-05-07 2023-12-19 Cranial Technologies, Inc. Pediatric head covering for use with three-dimensional imaging
US20230326136A1 (en) * 2022-04-06 2023-10-12 Qualcomm Incorporated Apparatus and methods for image reconstruction using machine learning processes

Family Cites Families (457)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1128979A (en) 1912-06-01 1915-02-16 Walter Hess Stereoscopic picture.
US1970311A (en) 1931-02-14 1934-08-14 Bell Telephone Labor Inc Projection of images for viewing in stereoscopic relief
US2133121A (en) 1936-04-02 1938-10-11 Richard I Stearns Stereoscopic screen and method stereoscopic vision
US2247969A (en) 1937-12-31 1941-07-01 Adlake Co Edge glow lighting system
US2480178A (en) 1946-05-08 1949-08-30 Ivan H Zinberg Light conductor
US2810905A (en) 1949-08-23 1957-10-22 Sperry Rand Corp High frequency directive beam apparatus
US3409351A (en) 1966-02-07 1968-11-05 Douglas F. Winnek Composite stereography
DE2011417A1 (de) 1970-03-11 1971-09-23 Agfa Gevaert Ag Projektionsschirm für Projektion mit dreidimensionalem Eindruck
US3992841A (en) 1974-08-30 1976-11-23 Ward Jr Robertson Panel construction and projection screen constructed from such panels
US4528617A (en) 1982-02-08 1985-07-09 Sheltered Workshop For The Disabled, Inc. Light distribution apparatus
US4542958A (en) 1983-01-13 1985-09-24 Vasco, Ltd. Variable aspect display
JPS6134583A (ja) 1984-07-26 1986-02-18 シャープ株式会社 照明装置
US4829365A (en) 1986-03-07 1989-05-09 Dimension Technologies, Inc. Autostereoscopic display with illuminating lines, light valve and mask
US4804253A (en) 1986-05-15 1989-02-14 General Electric Company Lenticular filter for display devices
US4807978A (en) 1987-09-10 1989-02-28 Hughes Aircraft Company Color display device and method using holographic lenses
US5050946A (en) 1990-09-27 1991-09-24 Compaq Computer Corporation Faceted light pipe
DE4102895C1 (es) 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
US6392689B1 (en) 1991-02-21 2002-05-21 Eugene Dolgoff System for displaying moving images pseudostereoscopically
JP2566087B2 (ja) 1992-01-27 1996-12-25 株式会社東芝 有色マイクロレンズアレイ及びその製造方法
JP2746790B2 (ja) 1992-03-02 1998-05-06 富士写真フイルム株式会社 立体画像記録方法および立体画像記録装置
US5528720A (en) 1992-03-23 1996-06-18 Minnesota Mining And Manufacturing Co. Tapered multilayer luminaire devices
US6002829A (en) 1992-03-23 1999-12-14 Minnesota Mining And Manufacturing Company Luminaire device
JPH05289208A (ja) 1992-04-15 1993-11-05 Fuji Photo Film Co Ltd 立体画像記録方法および立体画像記録装置
US5459592A (en) 1992-04-24 1995-10-17 Sharp Kabushiki Kaisha Projection display system including a collimating tapered waveguide or lens with the normal to optical axis angle increasing toward the lens center
US5278608A (en) 1992-05-19 1994-01-11 Eastman Kodak Company Electronically printed depth photography system with improved viewing range
US5903388A (en) 1992-06-11 1999-05-11 Sedlmayr Steven R High efficiency electromagnetic beam projector and systems and method for implementation thereof
US5347644A (en) 1992-06-11 1994-09-13 Sedlmayr Steven R Three-dimensional image display device and systems and methods for implementation thereof
EP0659324B1 (en) 1992-09-09 2000-04-12 EICHENLAUB, Jesse B. Stroboscopic illumination system for video displays
US5896225A (en) 1993-05-24 1999-04-20 Deutsche Thomson Brandt Gmbh Device for stereoscopic image observation within an increased observation area
US5796451A (en) 1993-10-23 1998-08-18 Samsung Display Devices Co., Ltd. Liquid crystal cell with an external color filter
GB2284068A (en) 1993-11-12 1995-05-24 Sharp Kk Three-dimensional projection display apparatus
US5581402A (en) 1993-11-22 1996-12-03 Eastman Kodak Company Method for producing an improved stereoscopic picture and stereoscopic picture obtained according to this method
DE69434108T2 (de) 1993-12-01 2006-02-02 Sharp K.K. Display für dreidimensionale Bilder
GB2294350A (en) 1994-10-21 1996-04-24 Sharp Kk Light source and display
EP0736188B1 (en) 1993-12-21 2002-09-18 Minnesota Mining And Manufacturing Company Reflective polarizer with brightness enhancement
EP0742940A4 (en) 1994-01-31 1998-09-30 Sdl Inc LASER-LIGHTED DISPLAY SYSTEM
US5510831A (en) 1994-02-10 1996-04-23 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using suit scanning of parallax images
US5588526A (en) 1994-04-01 1996-12-31 Insight, Inc. Flat box system with multiple view optics
WO1995027915A1 (en) 1994-04-11 1995-10-19 Minnesota, Mining And Manufacture Company Tapered multilayer luminaire device
US5933276A (en) 1994-04-13 1999-08-03 Board Of Trustees, University Of Arkansas, N.A. Aberration-free directional image window sheet
US5575549A (en) 1994-08-12 1996-11-19 Enplas Corporation Surface light source device
US6184969B1 (en) 1994-10-25 2001-02-06 James L. Fergason Optical display system and method, active and passive dithering using birefringence, color image superpositioning and display enhancement
GB2296617A (en) 1994-12-29 1996-07-03 Sharp Kk Observer tracking autosteroscopic display
GB2297876A (en) 1995-02-09 1996-08-14 Sharp Kk Observer tracking autostereoscopic display
JP3459721B2 (ja) 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JPH0915532A (ja) 1995-06-29 1997-01-17 Canon Inc 立体画像表示方法及びそれを用いた立体画像表示装置
US6023315A (en) 1995-07-04 2000-02-08 Sharp Kabushiki Kaisha Spatial light modulator and directional display
GB9513658D0 (en) 1995-07-05 1995-09-06 Philips Electronics Uk Ltd Autostereoscopic display apparatus
JP3286138B2 (ja) 1995-08-03 2002-05-27 日東電工株式会社 導光板、面光源装置、偏光光源装置及び液晶表示装置
US6061179A (en) 1996-01-23 2000-05-09 Canon Kabushiki Kaisha Stereoscopic image display apparatus with two-/three-dimensional image display switching function
EP0788008B1 (en) 1996-01-31 2006-04-26 Canon Kabushiki Kaisha Stereoscopic image display apparatus whose observation area is widened
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
TW413993B (en) 1996-03-15 2000-12-01 Sharp Kk Image display device
IT1285368B1 (it) 1996-05-27 1998-06-03 Fiat Ricerche Dispositivo a microfiltri e microchopper per la selezione dinamica di colori ed immagini.
JP2865618B2 (ja) 1996-05-31 1999-03-08 嶋田プレシジョン株式会社 導光板および導光板アセンブリ
GB2320156A (en) 1996-12-07 1998-06-10 Sharp Kk Directional display and method of making a mask for a directional display
GB9618593D0 (en) 1996-09-06 1996-10-16 Central Research Lab Ltd Apparatus for displaying an image
GB2317291A (en) 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
GB2321815A (en) 1997-02-04 1998-08-05 Sharp Kk Autostereoscopic display with viewer position indicator
DE19638081A1 (de) 1996-09-19 1998-03-26 Hella Kg Hueck & Co Leuchte für Fahrzeuge
GB2317771A (en) 1996-09-27 1998-04-01 Sharp Kk Observer tracking directional display
GB2317710A (en) 1996-09-27 1998-04-01 Sharp Kk Spatial light modulator and directional display
JP3397602B2 (ja) 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
GB9623682D0 (en) 1996-11-14 1997-01-08 Philips Electronics Nv Autostereoscopic display apparatus
US5771066A (en) 1997-01-03 1998-06-23 Barnea; Daniel I. Three dimensional display device
JP3441911B2 (ja) 1997-02-20 2003-09-02 キヤノン株式会社 情報処理装置及び方法
US6283858B1 (en) * 1997-02-25 2001-09-04 Bgk International Incorporated Method for manipulating images
DE69825572T2 (de) 1997-03-27 2005-08-04 Litton Systems, Inc., Woodland Hills Autostereoskopisches projektionssystem
GB2324428A (en) 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display
DE69838927T2 (de) 1997-06-12 2009-02-26 Sharp K.K. Anzeigevorrichtung mit vertical ausgerichtetem Flüssigkristall
GB9715397D0 (en) 1997-07-23 1997-09-24 Philips Electronics Nv Lenticular screen adaptor
DE19737449A1 (de) 1997-08-22 1999-02-25 Hertz Inst Heinrich Vorrichtung zum Nachführen eines autostereoskopischen Flachbildschirms
JP3199313B2 (ja) 1997-11-10 2001-08-20 キヤノン株式会社 反射型液晶表示装置及びそれを用いた投射型液晶表示装置
US6295109B1 (en) 1997-12-26 2001-09-25 Sharp Kabushiki Kaisha LCD with plurality of pixels having reflective and transmissive regions
US7239293B2 (en) 1998-01-21 2007-07-03 New York University Autostereoscopic display
JP3642381B2 (ja) 1998-02-26 2005-04-27 日東電工株式会社 導光板、面光源装置及び反射型液晶表示装置
JPH11259007A (ja) 1998-03-10 1999-09-24 Sony Corp 反射型表示装置
US20040108971A1 (en) 1998-04-09 2004-06-10 Digilens, Inc. Method of and apparatus for viewing an image
KR100530812B1 (ko) 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
DE19827590C2 (de) 1998-06-20 2001-05-03 Christoph Grosmann Verfahren und Vorrichtung zur Autostereoskopie
JP3862422B2 (ja) 1998-07-10 2006-12-27 キヤノン株式会社 画像読取装置
US6456340B1 (en) 1998-08-12 2002-09-24 Pixonics, Llc Apparatus and method for performing image transforms in a digital display system
US6476850B1 (en) 1998-10-09 2002-11-05 Kenneth Erbey Apparatus for the generation of a stereoscopic display
US6816158B1 (en) 1998-10-30 2004-11-09 Lemelson Jerome H Three-dimensional display system
US6642984B1 (en) 1998-12-08 2003-11-04 Fujitsu Display Technologies Corporation Liquid crystal display apparatus having wide transparent electrode and stripe electrodes
GB9828287D0 (en) 1998-12-23 1999-02-17 Secr Defence Brit Image display system
US6256447B1 (en) 1998-12-31 2001-07-03 Physical Optics Corporation Backlight for correcting diagonal line distortion
US7088333B1 (en) 1999-03-12 2006-08-08 Matsushita Electric Industrial Co., Ltd. Surface lighting device and portable terminal using the same
DE69934478T2 (de) 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
US6464365B1 (en) 1999-07-23 2002-10-15 Bae Systems Information And Electronic Systems Integration Inc. Light collimator for liquid crystal displays
US6305813B1 (en) 1999-08-11 2001-10-23 North American Lighting, Inc. Display device using a light guide for exterior automotive lighting
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US6859240B1 (en) 2000-01-27 2005-02-22 Mems Optical Inc. Autostereoscopic display
JP2003511826A (ja) 1999-10-08 2003-03-25 スリーエム イノベイティブ プロパティズ カンパニー ディスプレイ照明装置およびディスプレイ照明装置の輝度向上方法
JP3457591B2 (ja) 1999-10-08 2003-10-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 液晶表示装置
KR100307854B1 (ko) 1999-11-10 2001-11-02 전병우 단일카메라를 이용한 시선 맞춤 보정 방법 및 그 장치
US6975755B1 (en) 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
GB0003311D0 (en) 2000-02-15 2000-04-05 Koninkl Philips Electronics Nv Autostereoscopic display driver
US6347874B1 (en) 2000-02-16 2002-02-19 3M Innovative Properties Company Wedge light extractor with risers
HU0000752D0 (en) 2000-02-21 2000-04-28 Pixel element for three-dimensional screen
US7051189B2 (en) * 2000-03-15 2006-05-23 Arc International Method and apparatus for processor code optimization using code compression
AU2001245787A1 (en) 2000-03-17 2001-10-03 Zograph, Llc High acuity lens system
US6806898B1 (en) 2000-03-20 2004-10-19 Microsoft Corp. System and method for automatically adjusting gaze and head orientation for video conferencing
JP3968742B2 (ja) 2000-03-30 2007-08-29 株式会社エンプラス 導光板、面光源装置及び表示装置
US6975455B1 (en) 2000-04-18 2005-12-13 3M Innovative Properties Company Transflective layer for displays
JP4412441B2 (ja) 2000-07-11 2010-02-10 日本電気株式会社 液晶表示装置
US6373637B1 (en) 2000-09-13 2002-04-16 Eastman Kodak Company Diagonal lenticular image system
US6422713B1 (en) 2000-10-17 2002-07-23 Ford Global Technologies, Inc. Thin-sheet collimation optics for diode laser illumination systems for use in night vision and exterior lighting applications
GB0029340D0 (en) 2000-11-30 2001-01-17 Cambridge 3D Display Ltd Flat panel camera
AU2002217579A1 (en) 2000-12-18 2002-07-01 Byoungho Lee Relfecting three-dimensional display system
GB0108838D0 (en) 2001-04-07 2001-05-30 Cambridge 3D Display Ltd Far field display
US7001058B2 (en) 2001-05-16 2006-02-21 Ben-Zion Inditsky Ultra-thin backlight
JP4049267B2 (ja) 2001-06-01 2008-02-20 フィリップス ルミレッズ ライティング カンパニー リミテッド ライアビリティ カンパニー コンパクトな照明システムとディスプレイデバイス
AU2002354681A1 (en) 2001-07-13 2003-01-29 Mems Optical, Inc. Autosteroscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images
GB0118866D0 (en) 2001-08-02 2001-09-26 Cambridge 3D Display Ltd Shaped taper flat panel display
GB0119176D0 (en) 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
US20030112508A1 (en) 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
CN1271447C (zh) 2001-09-25 2006-08-23 剑桥平投影显示有限公司 平板投影显示器
KR100403599B1 (ko) 2001-11-06 2003-10-30 삼성전자주식회사 조명계 및 이를 채용한 프로젝션 시스템
US7365908B2 (en) 2001-11-08 2008-04-29 Eugene Dolgoff Tiling of panels for multiple-image displays
TW594119B (en) 2001-12-21 2004-06-21 Au Optronics Corp Backlight module for thin film transistor liquid crystal display
JP2003207743A (ja) 2002-01-16 2003-07-25 Olympus Optical Co Ltd 立体観察装置
JP3980890B2 (ja) 2002-01-23 2007-09-26 シャープ株式会社 導光板並びにそれを備えた光源装置及び表示装置
KR100712766B1 (ko) 2002-01-31 2007-05-02 미츠비시 레이온 가부시키가이샤 광원 장치
JP2003262734A (ja) 2002-03-08 2003-09-19 Citizen Electronics Co Ltd 導光板
JP4348457B2 (ja) 2002-03-13 2009-10-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジのディスプレイ、ディスプレイコントローラ及び画像表示方法
JP3867597B2 (ja) 2002-03-19 2007-01-10 セイコーエプソン株式会社 電気光学装置並びに電子機器及び投射型表示装置
ATE527562T1 (de) 2002-03-28 2011-10-15 Koninkl Philips Electronics Nv Kompaktes beleuchtungssystem und anzeigevorrichtung
US6771303B2 (en) 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
US7515173B2 (en) 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
US20040046709A1 (en) 2002-09-05 2004-03-11 Kazutora Yoshino 3 Dimensional image projector and holodeck
KR100513718B1 (ko) 2002-06-20 2005-09-07 삼성전자주식회사 평판표시소자용 조명장치
US9955551B2 (en) 2002-07-12 2018-04-24 Yechezkal Evan Spero Detector controlled illuminating system
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
JP3969252B2 (ja) 2002-08-27 2007-09-05 日本電気株式会社 立体画像平面画像切換表示装置及び携帯端末装置
JP2004095390A (ja) 2002-08-30 2004-03-25 Fujitsu Display Technologies Corp 照明装置及び表示装置
GB2393344A (en) 2002-09-17 2004-03-24 Sharp Kk Autostereoscopic display
US7210836B2 (en) 2002-09-19 2007-05-01 Mitsubishi Denki Kabushiki Kaisha Display unit and electronic apparatus with display unit
JP4398141B2 (ja) 2002-10-31 2010-01-13 パイオニア株式会社 表示装置及び方法
KR100499133B1 (ko) 2002-11-04 2005-07-04 삼성전자주식회사 백라이트 유닛
US20040263969A1 (en) 2002-11-25 2004-12-30 Lenny Lipton Lenticular antireflection display
US6811274B2 (en) 2002-12-04 2004-11-02 General Electric Company Polarization sensitive optical substrate
US7125131B2 (en) 2002-12-06 2006-10-24 General Electric Company Brightness enhancement film with improved view angle
JP4705014B2 (ja) 2003-02-21 2011-06-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 自動立体ディスプレイ
JP4143444B2 (ja) 2003-03-07 2008-09-03 キヤノン株式会社 照明光学系
JP3961973B2 (ja) 2003-03-14 2007-08-22 富士通株式会社 Otdrによる測定方法及び端局装置
JP2006527392A (ja) 2003-04-16 2006-11-30 アップストリーム エンジニアリング オーワイ 2d/3dデータプロジェクタ
US7245430B2 (en) 2003-04-21 2007-07-17 Ricoh Company, Ltd. Method and apparatus for displaying three-dimensional stereo image using light deflector
IL155525A0 (en) 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
US7976169B2 (en) 2003-05-14 2011-07-12 Sun Innovations, Inc. Waveguide display
GB0313044D0 (en) 2003-06-06 2003-07-09 Cambridge Flat Projection Flat panel scanning illuminator
US8254674B2 (en) * 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
GB2403815A (en) 2003-07-10 2005-01-12 Ocuity Ltd Birefringent lens array structure
GB2403814A (en) 2003-07-10 2005-01-12 Ocuity Ltd Directional display apparatus with birefringent lens structure
CN100390631C (zh) 2003-07-23 2008-05-28 夏普株式会社 液晶显示装置
GB2405542A (en) 2003-08-30 2005-03-02 Sharp Kk Multiple view directional display having display layer and parallax optic sandwiched between substrates.
BRPI0414613A (pt) 2003-09-22 2006-12-26 Gene Dolgoff exibições de imagens lenticulares e de grade de barreira onidirecional e métodos para realizá-las
GB2406730A (en) 2003-09-30 2005-04-06 Ocuity Ltd Directional display.
IL165376A0 (en) 2003-12-02 2006-01-15 Electro Optics Ind Ltd Vehicle display system
US7052168B2 (en) 2003-12-17 2006-05-30 3M Innovative Properties Company Illumination device
DE10359403B4 (de) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
JP4408368B2 (ja) 2003-12-24 2010-02-03 株式会社 日立ディスプレイズ 表示装置および表示方法およびこれらを用いる機器
CN1910399B (zh) 2004-01-15 2013-05-15 日立化成株式会社 反射器以及背光装置
GB2410116A (en) 2004-01-17 2005-07-20 Sharp Kk Illumination system and display device
JP4845893B2 (ja) 2004-01-20 2011-12-28 シャープ株式会社 方向性バックライトおよびマルチビューディスプレイデバイス
US20070019882A1 (en) * 2004-01-30 2007-01-25 Shoji Tanaka Makeup simulation program, makeup simulation device, and makeup simulation method
CN101493607B (zh) 2004-02-13 2011-04-20 三菱电机株式会社 液晶显示装置及信息设备
US7826668B1 (en) * 2004-02-17 2010-11-02 Corel Corporation Adaptive region editing tool
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US6962415B2 (en) 2004-02-27 2005-11-08 Honeywell International Inc. Electro-optical dimming system
US7375886B2 (en) 2004-04-19 2008-05-20 Stereographics Corporation Method and apparatus for optimizing the viewing distance of a lenticular stereogram
JP4616577B2 (ja) 2004-04-22 2011-01-19 株式会社日立製作所 映像表示装置
JP2005321693A (ja) 2004-05-11 2005-11-17 Hitachi Displays Ltd 液晶表示装置
GB2414127A (en) 2004-05-12 2005-11-16 Sharp Kk Time sequential colour projection
US7463775B1 (en) * 2004-05-18 2008-12-09 Adobe Systems Incorporated Estimating compressed storage size of digital data
TWI254166B (en) 2004-05-25 2006-05-01 Au Optronics Corp 3D display system and method
JP4367258B2 (ja) 2004-06-18 2009-11-18 日本電気株式会社 入出力装置及び端末装置
EP1766555B1 (en) 2004-06-21 2010-08-04 Google Inc. Single image based multi-biometric system and method
JP3908241B2 (ja) 2004-06-24 2007-04-25 オリンパス株式会社 映像表示装置
US7204631B2 (en) 2004-06-30 2007-04-17 3M Innovative Properties Company Phosphor based illumination system having a plurality of light guides and an interference reflector
US7088488B2 (en) 2004-07-13 2006-08-08 Imation Corp. Spatial light modulator device with diffusive element
US7215391B2 (en) 2004-07-16 2007-05-08 United Microelectronics Corp. Liquid crystal on silicon display with micro color filters positioned on the top surface of the transparent substrate
WO2010042486A1 (en) 2008-10-07 2010-04-15 Euclid Discoveries, Llc Feature-based video compression
US7278775B2 (en) 2004-09-09 2007-10-09 Fusion Optix Inc. Enhanced LCD backlight
US20080128728A1 (en) 2004-09-10 2008-06-05 Luminus Devices, Inc. Polarized light-emitting devices and methods
US7227567B1 (en) 2004-09-14 2007-06-05 Avaya Technology Corp. Customizable background for video communications
US8031273B2 (en) 2004-09-17 2011-10-04 Sharp Kabushiki Kaisha Display device, viewing angle control device, and electronic device
CA2579903C (en) 2004-09-17 2012-03-13 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
GB2418315A (en) 2004-09-21 2006-03-22 Sharp Kk Multiple view display
JP4186918B2 (ja) 2004-12-01 2008-11-26 セイコーエプソン株式会社 画像表示装置
DE102004059729B3 (de) 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
US20060139447A1 (en) 2004-12-23 2006-06-29 Unkrich Mark A Eye detection system and method for control of a three-dimensional display
DE102004063838A1 (de) 2004-12-23 2006-07-06 Seereal Technologies Gmbh Verfahren und Einrichtung zum Berechnen computer generierter Videohologramme
GB0502453D0 (en) 2005-02-05 2005-03-16 Cambridge Flat Projection Flat panel lens
US7355800B2 (en) 2005-02-07 2008-04-08 Coherent, Inc. Apparatus for projecting a line of light from a diode-laser array
CN100584043C (zh) 2005-03-17 2010-01-20 皇家飞利浦电子股份有限公司 自动立体显示设备及其滤色器
JP4600317B2 (ja) 2005-03-31 2010-12-15 カシオ計算機株式会社 指向性を持った少なくとも2つの照明光を出射する照明装置及びそれを用いた表示装置
US20070115551A1 (en) 2005-04-01 2007-05-24 Alexis Spilman Space-variant waveplate for polarization conversion, methods and applications
JP5090337B2 (ja) 2005-04-08 2012-12-05 リアルディー インコーポレイテッド 平面パススルーを有する自動立体ディスプレイ
US7430358B2 (en) 2005-04-20 2008-09-30 Wavefront Technology, Inc. Elliptical diffusers used in displays
US8675125B2 (en) 2005-04-27 2014-03-18 Parellel Consulting Limited Liability Company Minimized-thickness angular scanner of electromagnetic radiation
US7188953B2 (en) 2005-05-03 2007-03-13 Eastman Kodak Company Display apparatus using LCD panel
TWI351588B (en) 2005-05-06 2011-11-01 Seereal Technologies Gmbh Device for holographic reconstructions of three-di
GB2426351A (en) 2005-05-19 2006-11-22 Sharp Kk A dual view display
TW200641416A (en) 2005-05-31 2006-12-01 Bright View Electronics Co Ltd A lighting device providing longitudinal illumination
KR100650191B1 (ko) 2005-05-31 2006-11-27 삼성전기주식회사 정전기 방전 충격에 대한 보호 기능이 내장된 고휘도 발광다이오드
US7404645B2 (en) 2005-06-20 2008-07-29 Digital Display Innovations, Llc Image and light source modulation for a digital display system
JP4741887B2 (ja) 2005-06-24 2011-08-10 Nec液晶テクノロジー株式会社 光源装置、表示装置及び端末装置
KR100813977B1 (ko) 2005-07-08 2008-03-14 삼성전자주식회사 2차원/3차원 영상 호환용 고해상도 입체 영상 디스플레이장치
GB2428345A (en) 2005-07-13 2007-01-24 Sharp Kk A display having multiple view and single view modes
CN100376970C (zh) 2005-07-20 2008-03-26 清华大学 导光板与背光模组
US8393777B2 (en) 2005-07-28 2013-03-12 Light Prescriptions Innovators, Llc Etendue-conserving illumination-optics for backlights and frontlights
KR101128519B1 (ko) 2005-08-04 2012-03-27 삼성전자주식회사 고해상도 오토스테레오스코픽 디스플레이
CN1908753A (zh) 2005-08-05 2007-02-07 鸿富锦精密工业(深圳)有限公司 偏振光转换器、其制造方法及背光模组
JP3872810B1 (ja) 2005-08-12 2007-01-24 シャープ株式会社 光源制御装置、照明装置及び液晶表示装置
JP2009507256A (ja) 2005-09-02 2009-02-19 カラーリンク・インコーポレイテッド 偏光ビームスプリッタ及びコンバイナ
JP4626467B2 (ja) 2005-09-29 2011-02-09 カシオ計算機株式会社 液晶表示装置
US7663712B2 (en) 2005-10-10 2010-02-16 Skc Haas Display Films Co., Ltd. Backlight unit with linearly reduced divergence having the width of an output aperture vary over the length of a light divergence reduction structure
US7378686B2 (en) 2005-10-18 2008-05-27 Goldeneye, Inc. Light emitting diode and side emitting lens
EP1949341A4 (en) 2005-11-14 2011-09-28 Real D INTEGRATED INTERDIGITATION MONITOR
EP1967015A2 (en) 2005-12-21 2008-09-10 Koninklijke Philips Electronics N.V. Backlight arrangement
KR20070071293A (ko) 2005-12-29 2007-07-04 엘지.필립스 엘시디 주식회사 액정표시소자 및 그 제조방법
JP4215058B2 (ja) 2006-01-19 2009-01-28 エプソンイメージングデバイス株式会社 画像表示装置及び電子機器
US7528906B2 (en) 2006-01-23 2009-05-05 Real D Achromatic polarization switches
KR20080090961A (ko) 2006-01-27 2008-10-09 가부시키가이샤 엔프라스 면광원 장치 및 표시 장치
US7593615B2 (en) 2006-02-10 2009-09-22 Rpc Photonics, Inc. Optical devices for guiding illumination
KR100813975B1 (ko) 2006-02-27 2008-03-14 삼성전자주식회사 2차원/3차원 영상 호환용 고해상도 입체 영상 표시 장치
US20070223252A1 (en) 2006-03-24 2007-09-27 Junwon Lee Illumination apparatus and film
KR100765075B1 (ko) 2006-03-26 2007-10-09 엘지이노텍 주식회사 질화물 반도체 발광 소자 및 그 제조방법
JP4385031B2 (ja) 2006-03-31 2009-12-16 日本ライツ株式会社 導光板および平面照明装置
JP2007279474A (ja) 2006-04-10 2007-10-25 Hitachi Displays Ltd 液晶表示装置
US7751960B2 (en) * 2006-04-13 2010-07-06 Gm Global Technology Operations, Inc. Driver workload-based vehicle stability enhancement control
US7524053B2 (en) 2006-05-12 2009-04-28 Real D 3-D eyewear
US7646453B2 (en) 2006-06-05 2010-01-12 Skc Haas Display Films Co., Ltd. Reflective polarizer with polarization splitting microstructure
US7876489B2 (en) 2006-06-05 2011-01-25 Pixtronix, Inc. Display apparatus with optical cavities
US8251562B2 (en) 2006-07-21 2012-08-28 Fujifilm Corporation Unitary light guide plate, light guide plate unit, planar lighting device and liquid crystal display device
KR100823274B1 (ko) 2006-07-26 2008-04-17 삼성전자주식회사 조명장치 및 이를 채용한 디스플레이 장치
US7529416B2 (en) 2006-08-18 2009-05-05 Terayon Communication Systems, Inc. Method and apparatus for transferring digital data between circuits
JP5015162B2 (ja) 2006-09-26 2012-08-29 パナソニック株式会社 面状照明装置及びそれを用いた液晶表示装置
GB0619366D0 (en) 2006-10-02 2006-11-08 Cambridge Flat Projection Distortionless wedge projection
JP4197716B2 (ja) 2006-10-03 2008-12-17 株式会社東芝 立体映像表示装置
WO2008045681A1 (en) 2006-10-06 2008-04-17 3M Innovative Properties Company Backlight modules for autostereoscopic 3d display devices and scanning backlights for lcd devices
GB0620014D0 (en) 2006-10-10 2006-11-22 Cambridge Flat Projection Prismatic film backlight
KR101398507B1 (ko) 2006-10-27 2014-06-27 도레이 카부시키가이샤 광 반사판용 백색 폴리에스테르 필름
CN101617252B (zh) 2006-12-29 2012-06-20 莫迪尼斯有限公司 用于照明应用的内耦合结构
US8199152B2 (en) 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
WO2008090643A1 (ja) 2007-01-22 2008-07-31 Sharp Kabushiki Kaisha 光源モジュール及びバックライト光源
JP4974703B2 (ja) 2007-02-21 2012-07-11 富士フイルム株式会社 面状照明装置
GB0704803D0 (en) 2007-03-13 2007-04-18 Cambridge Flat Projection Structured colour illumination of lcd's
JP4967731B2 (ja) 2007-03-15 2012-07-04 セイコーエプソン株式会社 画像表示装置及びそのための光学部材
US7798698B2 (en) 2007-03-23 2010-09-21 Victor Company Of Japan, Limited Lighting device and display device
US7806579B2 (en) 2007-03-30 2010-10-05 Honeywell International Inc. Luminaire having a two-way waveguide
RU2377623C2 (ru) 2007-04-20 2009-12-27 Василий Александрович ЕЖОВ Способ наблюдения стереоизображений с полным разрешением для каждого ракурса и устройство для его реализации
DE102008021721A1 (de) 2007-05-08 2008-11-27 Citizen Electronics Co., Ltd., Fujiyoshida-shi Optisches Bauteil, Hintergrundbeleuchtungseinheit und Anzeigevorrichtung
US7528893B2 (en) 2007-05-18 2009-05-05 3M Innovative Properties Company Backlight for liquid crystal display
US8482685B2 (en) 2007-06-05 2013-07-09 Samsung Display Co., Ltd. Liquid crystal display panel
JP4902431B2 (ja) 2007-06-07 2012-03-21 富士フイルム株式会社 面状照明装置
US20080316303A1 (en) 2007-06-08 2008-12-25 Joseph Chiu Display Device
US7618178B2 (en) 2007-06-11 2009-11-17 SKC Haas Display Films Co., Lt.d Backlight containing formed birefringence reflective polarizer
KR20090009436A (ko) 2007-07-20 2009-01-23 엘지이노텍 주식회사 엘이디 백라이트
US8331615B2 (en) 2007-08-01 2012-12-11 The Board Of Trustees Of The University Of Illinois Match, expand, and filter technique for multi-view stereopsis
JP5248062B2 (ja) 2007-08-24 2013-07-31 株式会社東芝 指向性バックライト、表示装置及び立体画像表示装置
KR100932304B1 (ko) 2007-10-30 2009-12-16 제일모직주식회사 배면에 비대칭 프리즘을 구비하는 백라이트 유닛용 도광판및 이를 이용한 액정표시장치
US8087793B2 (en) 2007-10-30 2012-01-03 Edward Pakhchyan Back-light assembly
US7791683B2 (en) 2007-11-19 2010-09-07 Honeywell International Inc. Backlight systems for liquid crystal displays
US8144153B1 (en) 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
JP4996433B2 (ja) 2007-11-27 2012-08-08 ミネベア株式会社 面状照明装置
EP2232470A4 (en) 2007-12-20 2012-04-11 Real Inc INTRA PIXEL LIGHTING SYSTEM AND METHOD
US20090168459A1 (en) 2007-12-27 2009-07-02 Qualcomm Incorporated Light guide including conjugate film
KR101421626B1 (ko) 2008-01-09 2014-07-22 삼성디스플레이 주식회사 광원 유닛, 이를 구비하는 백라이트 유닛 및 액정 표시장치
WO2009093452A1 (ja) 2008-01-23 2009-07-30 Panasonic Corporation 波長分離装置、これを用いた面状照明装置、及びこれを用いた液晶表示装置
JP4902566B2 (ja) 2008-02-15 2012-03-21 シャープ株式会社 面状照明装置および表示装置
US9058765B1 (en) 2008-03-17 2015-06-16 Taaz, Inc. System and method for creating and sharing personalized virtual makeovers
US7750982B2 (en) 2008-03-19 2010-07-06 3M Innovative Properties Company Autostereoscopic display with fresnel lens element and double sided prism film adjacent a backlight having a light transmission surface with left and right eye light sources at opposing ends modulated at a rate of at least 90 hz
CA2659698C (en) * 2008-03-21 2020-06-16 Dressbot Inc. System and method for collaborative shopping, business and entertainment
US8106910B2 (en) 2008-03-28 2012-01-31 Vldimir Pugach Method for correct reproduction of moving spatial images on a flat screen
KR20110009093A (ko) 2008-04-03 2011-01-27 스미또모 가가꾸 가부시키가이샤 액정 표시 장치
US8684588B2 (en) 2008-06-04 2014-04-01 Sharp Kabushiki Kaisha Light guide elements for display device
US8068187B2 (en) 2008-06-18 2011-11-29 3M Innovative Properties Company Stereoscopic 3D liquid crystal display apparatus having a double sided prism film comprising cylindrical lenses and non-contiguous prisms
US9253416B2 (en) 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
JP4525808B2 (ja) 2008-07-28 2010-08-18 ソニー株式会社 立体画像表示装置およびその製造方法
US8625881B2 (en) 2008-08-15 2014-01-07 Reald Inc. Enhanced ghost compensation for stereoscopic imagery
US8223296B2 (en) 2008-08-25 2012-07-17 Lg Display Co. Ltd. Backlight unit and liquid crystal display device having the same
KR101450146B1 (ko) 2008-09-02 2014-10-14 삼성디스플레이 주식회사 백라이트 어셈블리 및 이를 포함하는 표시 장치
US7660047B1 (en) 2008-09-03 2010-02-09 Microsoft Corporation Flat panel lens
WO2010040146A1 (en) 2008-10-03 2010-04-08 Real D Optimal depth mapping
EP2351377A1 (en) 2008-10-21 2011-08-03 Koninklijke Philips Electronics N.V. Method and system for processing an input three dimensional video signal
US8482654B2 (en) 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
CA2740800A1 (en) 2008-10-27 2010-05-06 Nippon Telegraph And Telephone Corporation Predicted pixel value generation procedure automatic producing method, image encoding method, image decoding method, apparatus therefor, programs therefor, and storage media whichstore the programs
US7798699B2 (en) 2008-11-10 2010-09-21 Nokia Corporation Layered light guide with diffractive structures
TWI396873B (zh) 2008-12-31 2013-05-21 Nat Univ Tsing Hua 一種微結構偏極化之導光裝置
US8152349B2 (en) 2009-01-15 2012-04-10 Microsoft Corporation End reflector for a flat panel lens
JP2010164914A (ja) 2009-01-19 2010-07-29 Hitachi Displays Ltd 液晶表示装置
US8026997B2 (en) 2009-01-28 2011-09-27 Sharp Laboratories Of America, Inc. Area active backlight with steerable light source
KR20100092152A (ko) 2009-02-12 2010-08-20 엘지이노텍 주식회사 백라이트 유닛
JP5275441B2 (ja) 2009-02-17 2013-08-28 シャープ株式会社 導光体、面光源装置および液晶表示装置
DE102009010538B4 (de) 2009-02-25 2022-02-03 tooz technologies GmbH Multifunktionsglas mit einer optisch wirksamen Fläche, die zumindest teilweise eine Fresnel-Struktur mit mehreren Fresnel-Segmenten aufweist, sowie Verfahren zur Herstellung eines solchen optischen Multifunktionsglases
US20100214135A1 (en) 2009-02-26 2010-08-26 Microsoft Corporation Dynamic rear-projected user interface
JP5143770B2 (ja) 2009-03-02 2013-02-13 株式会社ジャパンディスプレイイースト 液晶表示装置
US20100231498A1 (en) 2009-03-13 2010-09-16 Microsoft Corporation Image display via multiple light guide sections
EP2236074B1 (en) 2009-04-01 2021-05-26 Tobii AB Visual display with illuminators for gaze tracking
US20120105486A1 (en) 2009-04-09 2012-05-03 Dynavox Systems Llc Calibration free, motion tolerent eye-gaze direction detector with contextually aware computer interaction and communication methods
WO2010124028A2 (en) 2009-04-21 2010-10-28 Vasylyev Sergiy V Light collection and illumination systems employing planar waveguide
US8639072B2 (en) 2011-10-19 2014-01-28 Milan Momcilo Popovich Compact wearable display
US20100277575A1 (en) 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via a media device
US8783898B2 (en) 2009-05-01 2014-07-22 Abl Ip Holding Llc Light emitting devices and applications thereof
DE102009003069A1 (de) 2009-05-13 2010-11-25 Seereal Technologies S.A. 3D-Anzeigedisplay mit steuerbarer Vorrichtung zum Nachführen von Sichtbarkeitsbereichen
US8509309B2 (en) * 2009-05-14 2013-08-13 Massachusetts Institute Of Technology Selecting transforms for compressing visual data
US8203595B2 (en) 2009-05-21 2012-06-19 Alcatel Lucent Method and apparatus for enabling improved eye contact in video teleconferencing applications
KR20120018370A (ko) 2009-05-28 2012-03-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 무안경 입체식 디스플레이 디바이스
US8216405B2 (en) 2009-05-28 2012-07-10 Microsoft Corporation Making an optic with a cladding
GB2470752B (en) 2009-06-03 2015-01-07 Au Optronics Corp Autostereoscopic Display Apparatus
JP5563250B2 (ja) 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
KR20110006773A (ko) 2009-07-15 2011-01-21 삼성전자주식회사 디스플레이장치 및 텔레비전
EP2282231A3 (en) 2009-08-07 2011-05-04 JDS Uniphase Corporation Multi-segment optical retarder for creating 3d images
JP5375424B2 (ja) 2009-08-10 2013-12-25 東芝ライテック株式会社 発光装置及びその製造方法、灯具、並びに灯具システム
FR2949264B1 (fr) 2009-08-18 2012-02-24 Screen Res Procede de fabrication d'un ecran de projection et ecran correspondant
US20110242298A1 (en) 2009-08-21 2011-10-06 Microsoft Corporation Private video presentation
US20110044582A1 (en) 2009-08-21 2011-02-24 Microsoft Corporation Efficient collimation of light with optical wedge
US20110044056A1 (en) 2009-08-21 2011-02-24 Microsoft Corporation Light collector for an illumination optic
US8354806B2 (en) 2009-08-21 2013-01-15 Microsoft Corporation Scanning collimation of light via flat panel lamp
JP5333050B2 (ja) 2009-08-25 2013-11-06 ソニー株式会社 立体映像表示装置および立体映像表示装置の製造方法
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
KR101684478B1 (ko) 2010-01-20 2016-12-09 삼성디스플레이 주식회사 복수의 도광판을 갖는 백라이트 어셈블리
US20110188120A1 (en) 2010-01-29 2011-08-04 Beam Engineering For Advanced Measurement Co. Broadband optics for manipulating light beams and images
KR101680771B1 (ko) 2010-02-04 2016-11-30 삼성전자주식회사 입체 영상 디스플레이 장치 및 방법
JP2013080562A (ja) 2010-02-10 2013-05-02 Sharp Corp バックライト装置および液晶表示装置並びにテレビジョン受像機
US8384774B2 (en) 2010-02-15 2013-02-26 Eastman Kodak Company Glasses for viewing stereo images
KR20110097690A (ko) 2010-02-23 2011-08-31 삼성전자주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
US20110216266A1 (en) 2010-03-02 2011-09-08 Microsoft Corporation Wedge backlight with diffraction grating
US8922480B1 (en) 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
JP5055398B2 (ja) 2010-03-12 2012-10-24 株式会社ジャパンディスプレイイースト 照明装置および液晶表示装置
JP5462672B2 (ja) 2010-03-16 2014-04-02 株式会社ジャパンディスプレイ 表示装置及び電子機器
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
KR20110109565A (ko) 2010-03-31 2011-10-06 삼성전자주식회사 백라이트 유닛, 이를 구비한 3d 디스플레이 및 3d 영상 형성 방법
CN103038567A (zh) 2010-04-16 2013-04-10 弗莱克斯照明第二有限责任公司 包括膜基光导的照明装置
US8564740B2 (en) 2010-05-24 2013-10-22 3M Innovative Properties Company Directional backlight with reduced crosstalk
US8477261B2 (en) 2010-05-26 2013-07-02 Microsoft Corporation Shadow elimination in the backlight for a 3-D display
EP2577963A1 (en) 2010-05-26 2013-04-10 Ramot at Tel Aviv University, Ltd. Method and system for correcting gaze offset
US8311337B2 (en) * 2010-06-15 2012-11-13 Cyberlink Corp. Systems and methods for organizing and accessing feature vectors in digital images
US10089937B2 (en) 2010-06-21 2018-10-02 Microsoft Technology Licensing, Llc Spatial and temporal multiplexing display
KR101680770B1 (ko) 2010-07-09 2016-11-29 삼성전자주식회사 백라이트 유닛 및 이를 구비하는 디스플레이장치
WO2012008152A1 (ja) 2010-07-14 2012-01-19 パナソニック株式会社 表示装置
WO2012008972A1 (en) 2010-07-16 2012-01-19 Hewlett-Packard Development Company, L.P. Methods and systems for establishing eye contact and accurate gaze in remote collaboration
KR101729556B1 (ko) 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
WO2012021967A1 (en) 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US9024997B2 (en) 2010-09-03 2015-05-05 At&T Intellectual Property L.L.P. Virtual presence via mobile
US8534901B2 (en) 2010-09-13 2013-09-17 Teledyne Reynolds, Inc. Collimating waveguide apparatus and method
JP5364666B2 (ja) 2010-09-13 2013-12-11 株式会社東芝 立体画像表示装置、方法およびプログラム
EP2431786A1 (de) 2010-09-17 2012-03-21 Bayer MaterialScience AG Autostereoskopisches 3D-Display
US8651725B2 (en) 2010-09-30 2014-02-18 Global Lighting Technology Inc. Backlight module
US8848040B2 (en) 2010-10-08 2014-09-30 3Dv Co., Ltd. 3D display system with active shutter plate
US9294717B2 (en) 2010-10-13 2016-03-22 At&T Intellectual Property I, L.P. System and method to enable layered video messaging
KR20120045098A (ko) 2010-10-29 2012-05-09 삼성전자주식회사 백라이트 어셈블리 및 이를 갖는 액정 표시 장치
KR101670927B1 (ko) 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
US8494237B2 (en) * 2010-11-08 2013-07-23 Cranial Technologies, Inc Method and apparatus for processing digital image representations of a head shape
EP3557310A1 (en) 2010-11-19 2019-10-23 RealD Spark, LLC Directional flat illuminators
US20140041205A1 (en) 2010-11-19 2014-02-13 Reald Inc. Method of manufacturing directional backlight apparatus and directional structured optical film
US9250448B2 (en) 2010-11-19 2016-02-02 Reald Inc. Segmented directional backlight and related methods of backlight illumination
US8651726B2 (en) 2010-11-19 2014-02-18 Reald Inc. Efficient polarized directional backlight
US20130328866A1 (en) 2010-11-19 2013-12-12 Reald Inc. Spatially multiplexed imaging directional backlight displays
CN102012742A (zh) 2010-11-24 2011-04-13 广东威创视讯科技股份有限公司 一种眼睛鼠标的校正方法及其装置
US8988336B2 (en) 2010-12-16 2015-03-24 3M Innovative Properties Company Dual-orientation autostereoscopic backlight and display
KR20120074825A (ko) 2010-12-28 2012-07-06 엘지전자 주식회사 디스플레이 장치
US8823769B2 (en) 2011-01-05 2014-09-02 Ricoh Company, Ltd. Three-dimensional video conferencing system with eye contact
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US9338449B2 (en) 2011-03-08 2016-05-10 Qualcomm Incorporated Harmonized scan order for coding transform coefficients in video coding
US20120236133A1 (en) 2011-03-18 2012-09-20 Andrew Charles Gallagher Producing enhanced images from anaglyph images
JP2012204370A (ja) 2011-03-23 2012-10-22 Sony Corp 光源回路ユニットおよび照明装置、並びに表示装置
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
JP5751922B2 (ja) 2011-05-09 2015-07-22 キヤノン株式会社 発光装置および表示装置
US8676937B2 (en) 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
WO2012158574A1 (en) 2011-05-13 2012-11-22 Reald Inc. Efficient polarized directional backlight
JP2012244396A (ja) 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US8184069B1 (en) * 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
JP5649526B2 (ja) 2011-07-01 2015-01-07 株式会社ジャパンディスプレイ 表示装置
US8760762B1 (en) 2011-08-12 2014-06-24 Google Inc. Image waveguide utilizing two mirrored or polarized surfaces
JP6242569B2 (ja) 2011-08-25 2017-12-06 東芝メディカルシステムズ株式会社 医用画像表示装置及びx線診断装置
US9538133B2 (en) * 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US9097826B2 (en) 2011-10-08 2015-08-04 Svv Technology Innovations, Inc. Collimating illumination systems employing a waveguide
US20130107340A1 (en) 2011-10-31 2013-05-02 Yoon Kean Wong Autostereoscopic Steering Light-Guide Three-Dimensional Displays
US20130127861A1 (en) 2011-11-18 2013-05-23 Jacques Gollier Display apparatuses and methods for simulating an autostereoscopic display device
US20130135588A1 (en) 2011-11-29 2013-05-30 Milan Momcilo Popovich 3D display apparatus
WO2013079607A1 (en) 2011-11-30 2013-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
US8942434B1 (en) 2011-12-20 2015-01-27 Amazon Technologies, Inc. Conflict resolution for pupil detection
US8824779B1 (en) * 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
US8593452B2 (en) * 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
JP2015511329A (ja) 2012-01-31 2015-04-16 アルファマイクロン インコーポレイテッド 電子的調光可能光学装置
US9684953B2 (en) 2012-02-27 2017-06-20 Eth Zurich Method and system for image processing in video conferencing
KR101977638B1 (ko) 2012-02-29 2019-05-14 삼성전자주식회사 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
US8950883B2 (en) 2012-03-09 2015-02-10 Corning Incorporated Bezel-free display device using directional backlighting
US9378574B2 (en) * 2012-04-26 2016-06-28 Electronics And Telecommunications Research Institute Apparatus and method for producing makeup avatar
US9350980B2 (en) 2012-05-18 2016-05-24 Reald Inc. Crosstalk suppression in a directional backlight
JP6308630B2 (ja) 2012-05-18 2018-04-11 リアルディー スパーク エルエルシー 指向性照明導波路配置
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
US9188731B2 (en) 2012-05-18 2015-11-17 Reald Inc. Directional backlight
EP4123348B1 (en) 2012-05-18 2024-04-10 RealD Spark, LLC Controlling light sources of a directional backlight
CN104302965B (zh) 2012-05-18 2017-04-12 瑞尔D斯帕克有限责任公司 用于成像定向背光源的光源调节
WO2013173776A1 (en) 2012-05-18 2013-11-21 Reald Inc. Control system for a directional light source
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US8957943B2 (en) 2012-07-02 2015-02-17 Bby Solutions, Inc. Gaze direction adjustment for video calls and meetings
US9224248B2 (en) * 2012-07-12 2015-12-29 Ulsee Inc. Method of virtual makeup achieved by facial tracking
US9285532B2 (en) 2012-07-13 2016-03-15 Blackberry Limited Backlight module having a prisim reflector
KR101979669B1 (ko) 2012-07-13 2019-05-17 삼성전자주식회사 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
CN104685867B (zh) 2012-07-23 2017-03-08 瑞尔D斯帕克有限责任公司 观察者跟踪自动立体显示器
US9081195B2 (en) 2012-08-13 2015-07-14 Innolux Corporation Three-dimensional image display apparatus and three-dimensional image processing method
CN103807664A (zh) 2012-11-07 2014-05-21 纬创资通股份有限公司 光源模块和制作光源模块的方法
US20150334365A1 (en) 2012-11-29 2015-11-19 Sharp Kabushiki Kaisha Stereoscopic image processing apparatus, stereoscopic image processing method, and recording medium
US20140153832A1 (en) * 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images
US9552668B2 (en) * 2012-12-12 2017-01-24 Microsoft Technology Licensing, Llc Generation of a three-dimensional representation of a user
EP2953090A4 (en) 2013-02-01 2016-05-25 Panasonic Ip Man Co Ltd MAKEUP AID, MAKEUP AID, MAKEUP ASSISTANCE AND MAKEUP ASSISTANCE
JP6132232B2 (ja) * 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
CN105324605B (zh) 2013-02-22 2020-04-28 瑞尔D斯帕克有限责任公司 定向背光源
US9262648B2 (en) 2013-02-22 2016-02-16 Fujitsu Limited Display device with automatic viewing angle control
EP3011734A4 (en) 2013-06-17 2017-02-22 RealD Inc. Controlling light sources of a directional backlight
CN105637512B (zh) 2013-08-22 2018-04-20 贝斯普客公司 用于创造定制产品的方法和系统
KR101856568B1 (ko) 2013-09-16 2018-06-19 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
US9224060B1 (en) 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
JP6364627B2 (ja) 2013-11-01 2018-08-01 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
WO2015073438A1 (en) 2013-11-15 2015-05-21 Reald Inc. Directional backlights with light emitting element packages
US20150243035A1 (en) 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
KR20230060544A (ko) 2014-03-21 2023-05-04 리얼디 스파크, 엘엘씨 지향성 백라이트
US9407896B2 (en) 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9489739B2 (en) 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
US9325939B2 (en) 2014-08-14 2016-04-26 Verizon Patent And Licensing Inc. Method and system for providing gaze-directed correction during a video conferencing session
US9760762B2 (en) * 2014-11-03 2017-09-12 Anastasia Soare Facial structural shaping
US9626564B2 (en) 2014-11-17 2017-04-18 Intel Corporation System for enabling eye contact in electronic images
CN107106007B (zh) 2014-12-16 2020-10-02 皇家飞利浦有限公司 具有校准改进、准确度补偿和注视局部化平滑的注视跟踪系统
WO2016105541A1 (en) 2014-12-24 2016-06-30 Reald Inc. Adjustment of perceived roundness in stereoscopic image of a head
US9740282B1 (en) 2015-01-05 2017-08-22 Amazon Technologies, Inc. Gaze direction tracking
US9704038B2 (en) 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
KR102306538B1 (ko) * 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
CN104574321B (zh) 2015-01-29 2018-10-23 京东方科技集团股份有限公司 图像修正方法、图像修正装置和视频系统
US9300916B1 (en) 2015-02-10 2016-03-29 International Business Machines Corporation Natural gazes during online video conversations
EP3259920A1 (en) * 2015-02-19 2017-12-27 Magic Pony Technology Limited Visual processing using temporal and spatial interpolation
US10368741B2 (en) 2015-02-27 2019-08-06 Valorisation-Recherche, Limited Partnership Method of and system for processing signals sensed from a user
GB201507210D0 (en) 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
KR102317021B1 (ko) 2015-06-26 2021-10-25 삼성전자주식회사 디스플레이 장치 및 이의 영상 보정 방법
CN104951808B (zh) * 2015-07-10 2018-04-27 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
US10796480B2 (en) 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
US20170132528A1 (en) 2015-11-06 2017-05-11 Microsoft Technology Licensing, Llc Joint model training
KR102174258B1 (ko) 2015-11-06 2020-11-04 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
US9538130B1 (en) 2015-12-10 2017-01-03 Dell Software, Inc. Dynamic gaze correction for video conferencing
WO2017120247A1 (en) 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
US10664949B2 (en) 2016-04-22 2020-05-26 Intel Corporation Eye contact correction in real time using machine learning
US10423830B2 (en) 2016-04-22 2019-09-24 Intel Corporation Eye contact correction in real time using neural network based machine learning
WO2017213218A1 (ja) 2016-06-10 2017-12-14 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
US10043088B2 (en) 2016-06-23 2018-08-07 Siemens Healthcare Gmbh Image quality score using a deep generative machine-learning model
WO2017223530A1 (en) 2016-06-23 2017-12-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US20180158246A1 (en) 2016-12-07 2018-06-07 Intel IP Corporation Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays
US11026634B2 (en) 2017-04-05 2021-06-08 doc.ai incorporated Image-based system and method for predicting physiological parameters
US10777018B2 (en) 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images

Also Published As

Publication number Publication date
CN111183405A (zh) 2020-05-19
US20220207847A1 (en) 2022-06-30
WO2019032604A1 (en) 2019-02-14
US20210012575A1 (en) 2021-01-14
US10740985B2 (en) 2020-08-11
EP3665553A1 (en) 2020-06-17
US11232647B2 (en) 2022-01-25
EP4293574A3 (en) 2024-04-03
US20190051057A1 (en) 2019-02-14
EP3665553B1 (en) 2023-12-13
EP4293574A2 (en) 2023-12-20
EP3665553A4 (en) 2021-09-01
US11836880B2 (en) 2023-12-05

Similar Documents

Publication Publication Date Title
ES2967691T3 (es) Ajuste de una representación digital de una región de cabeza
KR102362544B1 (ko) 이미지 처리를 위한 방법 및 장치, 및 컴퓨터 판독 가능 저장 매체
US11854243B2 (en) Gaze correction of multi-view images
US11644898B2 (en) Eye tracking method and system
CN111783647B (zh) 人脸融合模型的训练方法、人脸融合方法、装置及设备
KR20190028349A (ko) 이미지 내 휴먼 분리를 위한 전자 장치 및 방법
JP2018028899A (ja) 画像レジストレーションの方法及びシステム
US20180189955A1 (en) Augumented reality (ar) method and system enhanced through efficient edge detection of image objects
WO2019015477A1 (zh) 图像矫正方法、计算机可读存储介质和计算机设备
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
KR20220052359A (ko) 듀얼 카메라 및 듀얼 픽셀을 통한 조인트 깊이 예측
US11321960B2 (en) Deep learning-based three-dimensional facial reconstruction system
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
GB2585197A (en) Method and system for obtaining depth data
CN115482182A (zh) 人脸深度图像的面部变形补偿方法、成像装置和存储介质