ES2912310T3 - Corrección de la mirada en imágenes multivista - Google Patents

Corrección de la mirada en imágenes multivista Download PDF

Info

Publication number
ES2912310T3
ES2912310T3 ES17736268T ES17736268T ES2912310T3 ES 2912310 T3 ES2912310 T3 ES 2912310T3 ES 17736268 T ES17736268 T ES 17736268T ES 17736268 T ES17736268 T ES 17736268T ES 2912310 T3 ES2912310 T3 ES 2912310T3
Authority
ES
Spain
Prior art keywords
image
images
displacement vector
head
view images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17736268T
Other languages
English (en)
Inventor
Eric Sommerlade
Michael G Robinson
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RealD Spark LLC
Original Assignee
RealD Spark LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RealD Spark LLC filed Critical RealD Spark LLC
Application granted granted Critical
Publication of ES2912310T3 publication Critical patent/ES2912310T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking

Abstract

Procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento en cada imagen (31), identificar áreas de imagen (S2) que contienen los ojos izquierdo y derecho de la cabeza, respectivamente; con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de: obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y obtener (S4) un campo vectorial de desplazamiento que representa una transformación de un área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).

Description

DESCRIPCIÓN
Corrección de la mirada en imágenes multivista
SECTOR TÉCNICO
La presente solicitud se refiere al procesamiento de imagen de imágenes multivista de una cabeza, por ejemplo, un par estereoscópico de imágenes de una cabeza, en relación con la mirada percibida de los ojos de la cabeza.
ESTADO DE LA TÉCNICA ANTERIOR
En muchos sistemas, un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza se pueden capturar en un dispositivo y presentar en un dispositivo diferente para su visualización por un observador. Un ejemplo no limitativo es un sistema para realizar teleconferencia entre dos dispositivos de telecomunicaciones. En ese caso, cada dispositivo puede capturar un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de la cabeza del observador de ese dispositivo y transmitirlas al otro dispositivo sobre una red de telecomunicaciones para su presentación y visualización por el observador del otro dispositivo. Cuando un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza se capturan y se presentan, la mirada de la cabeza en el par estereoscópico de imágenes, o, de forma más general, en las imágenes multivista presentadas, puede no estar dirigida al observador. Esto puede estar causado, por ejemplo, porque la mirada de la cabeza no se dirija al sistema de cámaras utilizado para capturar el par estereoscópico de imágenes, por ejemplo, debido a que el usuario cuya cabeza se representa está observando una pantalla en el mismo dispositivo que el sistema de cámaras y el sistema de cámaras está desplazado por encima (o por debajo) de esa pantalla. En ese caso, se percibirá que la mirada en las imágenes presentadas se dirige hacia abajo (o hacia arriba). El sistema visual humano ha desarrollado una alta sensibilidad a la mirada durante la interacción social, utilizando señales obtenidas de la posición relativa del iris y la esclerótica blanca de otros observadores. Por tanto, dichos errores en la mirada percibida son desconcertantes. Por ejemplo, en un sistema para realizar teleconferencia, los errores en la mirada percibida pueden crear interacciones no naturales entre los usuarios.
BREVE RESUMEN
La presente invención se refiere a una técnica de procesamiento de imagen para ajustar el par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza para corregir la mirada percibida.
Según un primer aspecto de la presente invención, se da a conocer un procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento: en cada imagen de las imágenes multivista, identificar áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza, respectivamente; con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de: obtener un vector de características a partir de varios descriptores de imagen locales del área de imagen en por lo menos una imagen de las imágenes multivista; y obtener un campo vectorial de desplazamiento que representa una transformación de un área de imagen, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características; y ajustar cada imagen de las imágenes multivista transformando las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza según el campo vectorial de desplazamiento obtenido.
En este procedimiento, se identifican y se transforman las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza. Para obtener un campo vectorial de desplazamiento que represente la transformación, se obtiene un vector de características a partir de varios descriptores de imagen locales del área de imagen en por lo menos una imagen de las imágenes multivista, y se utiliza para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. La forma del vector de características se puede obtener con antelación a partir de los datos de referencia utilizando aprendizaje automático. Este procedimiento permite corregir la mirada, reduciendo por tanto el efecto desconcertante de una mirada incorrecta cuando las imágenes multivista se presentan subsiguientemente.
Son posibles varios enfoques para obtener y utilizar campos vectoriales de desplazamiento, como sigue.
En un primer enfoque, los campos vectoriales de desplazamiento se pueden obtener con respecto a las áreas de imagen en cada imagen de las imágenes multivista de forma independiente. Esto permite corregir la mirada, pero existe el riesgo de que los campos vectoriales de desplazamiento con respecto a cada imagen puedan ser inconsistentes entre sí, con el resultado de que se lleven a cabo transformaciones en conflicto que pueden distorsionar el efecto estereoscópico y/o reducir la calidad de la imagen.
Sin embargo, los siguientes enfoques alternativos solucionan este problema.
Un segundo enfoque posible es como sigue. En el segundo enfoque, los varios descriptores de imagen locales utilizados en el procedimiento son varios descriptores de imagen locales en ambas imágenes de las imágenes multivista. En este caso, los datos de referencia comprenden campos vectoriales de desplazamiento de referencia para cada imagen de las imágenes multivista, campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características. Esto permite obtener un campo vectorial de desplazamiento a partir de los datos de referencia para cada imagen de las imágenes multivista. Por definición, los campos vectoriales de desplazamiento obtenidos para cada imagen de las imágenes multivista son inherentemente coherentes.
Una desventaja potencial de este segundo enfoque es que puede requerir que los datos de referencia se obtengan a partir de imágenes estereoscópicas, o, de forma más general, de imágenes multivista, cuya obtención puede no ser conveniente. Sin embargo, los siguientes enfoques permiten obtener los datos de referencia a partir de imágenes monoscópicas.
Un tercer enfoque posible es como sigue. En el tercer enfoque, los varios descriptores de imagen locales son varios descriptores de imagen locales en una imagen de las imágenes multivista, y los campos vectoriales de desplazamiento se obtienen como sigue. Se obtiene un campo vectorial de desplazamiento que representa una transformación del área de imagen en dicha una imagen de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. A continuación, se obtiene un campo vectorial de desplazamiento que representa una transformación del área de imagen en la otra o las otras imágenes multivista transformando el campo vectorial de desplazamiento obtenido que representa una transformación del área de imagen en dicha una imagen de las imágenes multivista, según una estimación del flujo óptico entre las áreas de imagen en la una imagen y en la otra o las otras imágenes multivista.
Por tanto, en el tercer enfoque, los campos vectoriales de desplazamiento obtenidos con respecto a cada imagen son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia, y el otro campo vectorial de desplazamiento se obtiene a partir del mismo utilizando una transformación según una estimación del flujo óptico entre las áreas de imagen en las imágenes de las imágenes multivista.
Un cuarto enfoque posible es como sigue. En el cuarto enfoque, los varios descriptores de imagen locales son varios descriptores de imagen locales en ambas imágenes de las imágenes multivista, y los campos vectoriales de desplazamiento se obtienen como sigue. Se obtiene un campo vectorial de desplazamiento inicial que representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. A continuación, se obtienen campos vectoriales de desplazamiento que representan una transformación de las áreas de imagen en cada imagen de las imágenes multivista transformando el campo vectorial de desplazamiento inicial según una estimación de los flujos ópticos entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes de las imágenes multivista.
Por tanto, en el cuarto enfoque, los campos vectoriales de desplazamiento obtenidos con respecto a cada imagen son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia, representando esto una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes de las imágenes multivista. Los campos vectoriales de desplazamiento respectivos utilizados para transformar las dos imágenes de las imágenes multivista se obtienen de las mismas utilizando una transformación según una estimación del flujo óptico entre las áreas de imagen nocionales en las imágenes nocionales y las imágenes de las imágenes multivista. Un quinto enfoque posible es como sigue. En el quinto enfoque, se obtienen campos vectoriales de desplazamiento con respecto a las áreas de imagen en cada imagen de las imágenes multivista, pero, a continuación, se obtiene a partir de los mismos un campo vectorial de desplazamiento combinado y se utiliza para transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza. En este caso, los campos vectoriales de desplazamiento para cada imagen son coherentes porque son iguales.
La combinación se puede llevar a cabo de alguna forma apropiada. Por ejemplo, la combinación puede ser un promedio sencillo o puede ser un promedio que se pondera mediante un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido. Dicho valor de confianza se puede obtener durante el aprendizaje automático.
Según un segundo aspecto de la presente invención, se da a conocer un aparato configurado para llevar a cabo un procedimiento similar al primer aspecto de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Se muestran realizaciones no limitativas por medio de ejemplos en las figuras adjuntas, en las que los números de referencia iguales indican partes similares, y en las que:
la FIGURA 1 es una vista esquemática, en perspectiva, de un dispositivo que captura un par estereoscópico de imágenes;
la FIGURA 2 es una vista esquemática, en perspectiva, de un dispositivo que presenta el par estereoscópico de imágenes;
la FIGURA 3 es un diagrama de flujo de un procedimiento de ajuste de un par estereoscópico de imágenes;
la FIGURA 4 es un diagrama que ilustra el procesamiento del par estereoscópico de imágenes en el procedimiento de la FIGURA 3;
la FIGURA 5 es un diagrama de flujo de una etapa de extracción de un área de imagen;
la FIGURA 6 y la FIGURA 7 son diagramas de flujo de etapas de obtención de campos vectoriales de desplazamiento según dos enfoques alternativos;
la FIGURA 8 y la FIGURA 9 son diagramas de flujo de dos alternativas para una etapa de ajuste de una imagen; la FIGURA 10 es un diagrama de flujo de una etapa de transformación dentro de la etapa de ajuste de una imagen en los procedimientos mostrados en la FIGURA 8 y en la FIGURA 9; y
la FIGURA 11 es un diagrama de un sistema de telecomunicaciones en el que se puede implementar el procedimiento.
DESCRIPCIÓN DETALLADA
La FIGURA 1 y la FIGURA 2 ilustran cómo se percibe una mirada incorrecta cuando un par estereoscópico de imágenes de una cabeza es capturado por el dispositivo 10 mostrado en la FIGURA 1, el cual se denominará dispositivo de origen 10, y presentado en un dispositivo diferente 20 mostrado en la FIGURA 2, el cual se denominará dispositivo de destino 20.
El dispositivo de captura 10 incluye una pantalla 11 y un sistema 12 de cámaras que comprende dos cámaras 13 utilizadas para capturar el par estereoscópico de imágenes de la cabeza de un observador de origen 14. El observador de origen 14 ve la pantalla 11 a lo largo de la línea 15. Las cámaras 13 del sistema 12 de cámaras están desplazadas de la pantalla 11, estando, en este caso, por encima de la pantalla 11. Por tanto, las cámaras 13 en la práctica miran al observador de origen 14 desde arriba a lo largo de la línea 16.
El dispositivo 20 de pantalla incluye una pantalla 21 que es una pantalla estereoscópica de cualquier tipo conocido, por ejemplo, una pantalla autoestereoscópica de cualquier tipo conocido. La pantalla 21 presenta el par estereoscópico de imágenes capturado por el dispositivo de captura 10. Un observador de destino 24 ve la pantalla 21. Si el observador de destino 24 se encuentra en una posición de visualización normal perpendicular al centro de la pantalla 21, tal como se muestra mediante el contorno sólido del observador de destino 24, entonces el observador de destino 24 percibe que la mirada del observador de origen 14 está hacia abajo, en lugar de mirando hacia el observador de destino 24, porque las cámaras 13 del dispositivo de origen 10 miran al observador de origen 14 desde arriba.
Aunque las cámaras 13 están por encima de la pantalla 11 en este ejemplo, las cámaras 13, en general, podrían estar en cualquier ubicación adyacente a la pantalla 11, y la mirada del observador de origen 14 percibida por el observador de destino 24 sería correspondientemente incorrecta.
Si el observador de destino 24 se encuentra en una posición de visualización desplazada, tal como se muestra mediante el contorno punteado del observador de destino 24, de modo que el observador de destino 24 ve la pantalla 21 a lo largo de la línea 26, entonces el desplazamiento del observador de destino 24 crea un error adicional en la mirada del observador de origen 14 percibida por el observador de destino 24. Un error adicional similar en la mirada percibida del observador de origen 14 se produce si el observador de destino 24 se encuentra en la posición de visualización normal a lo largo de la línea 25, pero el par estereoscópico de imágenes se presenta en la pantalla 25 en una posición desplazada del centro de la pantalla 25.
Un par estereoscópico de imágenes es un ejemplo de imágenes multivista en el que hay dos imágenes. Aunque la FIGURA 1 ilustra un ejemplo en el que el sistema 12 de cámaras incluye dos cámaras 13 que capturan un par estereoscópico de imágenes, alternativamente el sistema de cámaras puede incluir más de dos cámaras 13 que capturan más de dos imágenes multivista, en cuyo caso existen problemas similares de mirada percibida incorrecta en la presentación.
La FIGURA 3 ilustra un procedimiento de ajuste de imágenes multivista para corregir dichos errores en la mirada percibida. Por simplicidad, este procedimiento se describirá con respecto al ajuste de imágenes multivista que comprenden un par estereoscópico de imágenes. El procedimiento se puede generalizar a imágenes multivista que comprenden más de dos imágenes, sencillamente llevando a cabo un procesamiento similar en un número mayor de imágenes.
El procedimiento se puede llevar a cabo en un procesador 30 de imagen. El procesador 30 de imagen se puede implementar mediante un procesador que ejecuta un programa informático apropiado o mediante hardware dedicado o mediante alguna combinación de software y hardware. Si se utiliza un programa informático, el programa informático puede comprender instrucciones en cualquier lenguaje apropiado y se puede almacenar en un medio de almacenamiento legible por ordenador, que puede ser de cualquier tipo, por ejemplo: un medio de grabación que es insertable en una unidad del sistema informático y que puede almacenar información de forma magnética, óptica u optomagnética; un medio de grabación fijo del sistema informático, tal como una unidad de disco duro; o una memoria de ordenador.
El procesador 30 de imagen se puede disponer en el dispositivo de origen 10, el dispositivo de destino 10 o en cualquier otro dispositivo, por ejemplo, un servidor en una red de telecomunicaciones, lo que puede ser apropiado en caso de que el dispositivo de origen 10 y el dispositivo de destino 10 se comuniquen sobre dicha red de telecomunicaciones.
El par estereoscópico de imágenes 31 se captura mediante el sistema 12 de cámaras. Aunque en la FIGURA 1 se ilustra que el sistema 12 de cámaras incluye dos cámaras 13, esto no es limitativo, y, de forma más general, el sistema 13 de cámaras puede tener las siguientes propiedades.
El sistema de cámaras comprende un conjunto de cámaras 13, con por lo menos dos cámaras 13. Habitualmente, las cámaras están separadas una distancia menor de la distancia intrapupilar humana promedio. En la alternativa de que el procedimiento se aplique a más de dos imágenes multivista, entonces hay más de dos cámaras 13, es decir, una imagen de cámaras 13.
Las cámaras 13 están relacionadas espacialmente entre sí y con la pantalla 11. La relación espacial entre las propias cámaras 13 y entre las cámaras 13 y la pantalla 11 se conoce con antelación. Se pueden aplicar procedimientos conocidos para encontrar la relación espacial, por ejemplo, un procedimiento de calibración que utiliza una imagen de referencia, o una especificación a priori.
Las cámaras 13 se orientan en la misma dirección que la pantalla 11. Por tanto, cuando el observador de origen 14 está viendo la pantalla 11, entonces las cámaras 13 se orientan hacia el observador de origen 14 y el par estereoscópico de imágenes capturado son imágenes de la cabeza del observador de origen 14. Las cámaras en el sistema de cámaras pueden tener diferentes campos de visión.
El sistema 12 de cámaras puede incluir cámaras 13 que tengan diferentes modalidades de detección, incluyendo luz visible e infrarrojos.
La salida principal del sistema 13 de cámaras es un par estereoscópico de imágenes 31 que habitualmente son imágenes de vídeo emitidas a una tasa de vídeo. La salida del sistema 13 de cámaras también puede incluir datos que representan la relación espacial entre las cámaras 13 y la pantalla 11, la naturaleza de las modalidades de detección y los parámetros internos de las cámaras 13 (por ejemplo, longitud focal, eje óptico), que se pueden utilizar para la localización angular.
El procedimiento llevado a cabo sobre el par estereoscópico de imágenes 31 es como sigue. Para ilustrar el procedimiento, también se hace referencia a la FIGURA 4, que muestra un ejemplo del par estereoscópico de imágenes 31 en varias etapas del procedimiento.
En la etapa S1, el par estereoscópico de imágenes 31 se analiza para detectar la ubicación de la cabeza y, en particular, de los ojos del observador de origen 14 dentro del par estereoscópico de imágenes 31. Esto se lleva a cabo detectando la presencia de la cabeza, haciendo un seguimiento de la cabeza y localizando los ojos de la cabeza. La etapa S1 se puede llevar a cabo utilizando diversas técnicas que son conocidas en la técnica.
Una técnica posible para detectar la presencia de la cabeza es utilizar cascadas de características de Haar, por ejemplo, tal como se describe en el documento de Viola y Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", CVPR 2001, págs. 1-9.
Una técnica posible para hacer un seguimiento de la cabeza es utilizar el enfoque de modelos de apariencia activa para proporcionar la posición de la cabeza del sujeto, así como la ubicación de los ojos, por ejemplo, tal como se describe en el documento de Cootes et al., "Active shape models - their training and application", Computer Vision and Image Understanding, 61(1):38-59, enero de 1995 y en el documento de Cootes et al. "Active appearance models", IEEE Trans. Pattern Analysis and Machine Intelligence, 23(6):681-685, 2001.
En la etapa S1, habitualmente, un conjunto de puntos individuales ("puntos de referencia") se ajustan a regiones de la cara, habitualmente los ojos, por ejemplo, las esquinas del ojo, las ubicaciones de los párpados superior e inferior, etc., localizando, por tanto, los ojos.
En la etapa S2, las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza, se identifican respectivamente en cada imagen 31 del par estereoscópico. La FIGURA 4 muestra las áreas de imagen identificadas 32 del ojo derecho en cada imagen 31 (omitiéndose las áreas de imagen para el ojo izquierdo en la FIGURA 4 por claridad).
La etapa S2 se puede llevar a cabo tal como se muestra en la FIGURA 5 como sigue.
En la etapa S2-1, las áreas 32 de imagen que contienen los ojos izquierdo y derecho de la cabeza se identifican en cada imagen 31 del par estereoscópico. Esto se realiza identificando un área 39 de imagen en cada imagen 31 ubicada alrededor de los puntos identificados ("puntos de referencia") correspondientes a características de un ojo, como se muestra, por ejemplo, en la FIGURA 4.
En la etapa S2-2, las áreas 32 de imagen identificadas en la etapa S2-1 se transforman en un sistema de coordenadas normalizado, siendo el mismo sistema de coordenadas normalizado que el utilizado en el proceso de aprendizaje automático que se describe adicionalmente más adelante. La transformación se elige para alinear los puntos ("puntos de referencia") del ojo dentro de las áreas de imagen que se identificaron en la etapa S1, con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir traslación, rotación y escalado, en las cantidades apropiadas para conseguir esa alineación. La salida de la etapa S2-2 son áreas de imagen identificadas 33 del ojo derecho en cada imagen en el sistema de coordenadas normalizado, tal como se muestra, por ejemplo, en la FIGURA 4.
Las siguientes etapas se llevan a cabo de forma independiente (a) con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen 31 del par estereoscópico, y (b) con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen 31 del par estereoscópico. Por brevedad, la siguiente descripción se referirá sencillamente a áreas de imagen y ojos sin especificar el ojo izquierdo o derecho, pero teniendo en cuenta que se llevan a cabo las mismas etapas para los ojos izquierdo y derecho.
En la etapa S3, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales de un área de imagen 33 en por lo menos una imagen 31 del par estereoscópico. Dependiendo del enfoque y, tal como se describe adicionalmente más adelante, puede ser un área de imagen en una única imagen 31 del par estereoscópico o pueden ser ambas imágenes 31 del par estereoscópico. Por tanto, los descriptores de imagen locales son descriptores de imagen locales obtenidos en el sistema de coordenadas normalizado.
Los vectores de características 34 son representaciones de las áreas de imagen 33 que son apropiadas para su utilización en la búsqueda de datos de referencia 35 que comprenden campos vectoriales de desplazamiento de referencia que representan transformaciones del área de imagen y están asociados con posibles valores del vector de características.
Los datos de referencia 35 se obtienen y analizan con antelación utilizando una técnica de aprendizaje automático que obtiene la forma de los vectores de características 34 y asocia los campos vectoriales de desplazamiento de referencia con los posibles valores del vector de características. Por consiguiente, a continuación, se describirá la técnica de aprendizaje automático antes de volver al procedimiento de la FIGURA 3.
La entrada de entrenamiento para la técnica de aprendizaje automático son dos conjuntos de imágenes, que pueden ser pares estereoscópicos de imágenes o imágenes monoscópicas, tal como se analiza adicionalmente más adelante. Cada conjunto comprende imágenes de la cabeza del mismo grupo de individuos, pero capturadas con cámaras en diferentes ubicaciones con respecto a la mirada, de modo que la mirada percibida difiere entre ellas. El primer conjunto son imágenes de entrada, siendo imágenes de cada individuo con una mirada incorrecta, donde el error se conoce a priori. En particular, las imágenes en el primer conjunto se pueden capturar mediante por lo menos una cámara en una ubicación de cámara conocida donde la mirada del individuo está en una dirección conocida diferente. Por ejemplo, en el caso del dispositivo de origen de la FIGURA 1, la ubicación de cámara puede ser la ubicación de la cámara 13 y la mirada del individuo representado es hacia el centro de la pantalla 11.
El segundo conjunto son imágenes de salida, siendo imágenes de cada individuo con la mirada correcta para una ubicación del observador predeterminada con respecto a la ubicación de pantalla en la que se va a presentar la imagen. En el caso más sencillo, la ubicación del observador es una posición de visualización normal perpendicular al centro de la ubicación de pantalla, por ejemplo, como se muestra mediante el contorno sólido del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2.
Para cada imagen en los dos conjuntos, la imagen se analiza para detectar la ubicación de la cabeza, y, en particular, de los ojos utilizando la misma técnica utilizada en la etapa S1 descrita anteriormente, y, a continuación, las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se identifican, respectivamente, utilizando la misma técnica utilizada en la etapa S2 descrita anteriormente. A continuación, las siguientes etapas se llevan a cabo de forma independiente (a) con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen, y (b) con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen. Por brevedad, la siguiente descripción se referirá sencillamente a áreas de imagen y ojos sin especificar el ojo izquierdo o derecho, pero teniendo en cuenta que se llevan a cabo las mismas etapas para los ojos izquierdo y derecho.
Cada área de imagen se transforma en el mismo sistema de coordenadas normalizado utilizado en la etapa S2 descrita anteriormente. Tal como se ha descrito anteriormente, la transformación se elige para alinear puntos ("puntos de referencia") del ojo con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir traslación, rotación y escalado, en las cantidades apropiadas para conseguir esa alineación.
Por tanto, las áreas de imagen de las imágenes de entrada y de salida de cada individuo se alinean en el sistema de coordenadas normalizado.
A partir de una imagen de entrada y de salida de cada individuo, se obtiene un campo vectorial de desplazamiento que representa la transformación del área de imagen en la imagen de entrada requerida para obtener el área de imagen de la imagen de salida, por ejemplo, como sigue. Definiendo posiciones en las áreas de imagen mediante (x, y), el campo vectorial de desplazamiento F viene dado por
F = [u(x,y),v(x,y)}
donde u y v definen las componentes horizontal y vertical del vector en cada posición (x, y).
El campo vectorial de desplazamiento F se elige de modo que el área de imagen de la imagen de salida O(x, y) se obtiene a partir del área de imagen de la imagen de entrada I(x, y) como
0(x ,y) = l(x u(x,y ) ,y v(x,y ))
Para datos de imagen desde más de una cámara, el sistema entrega un campo vectorial de desplazamiento para la imagen de entrada desde cada cámara.
El campo vectorial de desplazamiento F para una imagen de entrada y de salida de un individuo se puede obtener utilizando un proceso en el que un vector de características de prueba F' = {u', v'} se modifica para minimizar el error, opcionalmente en un proceso iterativo, por ejemplo, según:
Figure imgf000007_0001
Por medio de un ejemplo no limitativo, el campo vectorial de desplazamiento F se puede obtener tal como se describen en el documento de Kononenko et al., "Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, págs. 4667-4675, en el que el campo vectorial de desplazamiento F se denomina "campo de flujo".
Se utiliza una técnica de aprendizaje automático para obtener una correspondencia entre el campo vectorial de desplazamiento F de cada individuo y vectores de características respectivos obtenidos a partir de varios descriptores de imagen locales del área de imagen de la imagen de entrada.
Los descriptores locales capturan información relevante de una parte local del área de imagen de la imagen de entrada, y el conjunto de descriptores normalmente forma una salida vectorial continua.
Los descriptores de imagen locales introducidos en el proceso de aprendizaje automático son de los tipos esperados para proporcionar una discriminación entre diferentes individuos, aunque los descriptores de imagen locales específicos se seleccionan y optimizan mediante el propio proceso de aprendizaje automático. En general, los descriptores de imagen locales pueden ser de cualquier tipo apropiado, siendo como sigue algunos ejemplos no limitativos que se pueden aplicar en cualquier combinación.
Los descriptores de imagen locales pueden incluir valores de píxeles individuales o una combinación lineal de los mismos. Dicha combinación lineal puede ser, por ejemplo, la diferencia entre los píxeles en dos puntos, un núcleo obtenido dentro de una máscara en una ubicación arbitraria, o una diferencia entre dos núcleos en ubicaciones diferentes.
Los descriptores de imagen locales pueden incluir distancias de una ubicación de píxel desde la posición de un punto de ojo ("punto de referencia").
Los descriptores de imagen locales pueden incluir características SIFT (características de transformación de características de escala invariante), por ejemplo, tal como se describe en el documento de Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision 60 (2), págs. 91 -110.
Los descriptores de imagen locales pueden incluir características HOG (características de histograma de gradientes orientados), por ejemplo, tal como se describe en el documento de Dalal et al. "Histograms of Oriented Gradients for Human Detection", Computer Vision and Pattern Recognition, 2005, págs. 886-893.
La obtención del vector de características a partir de varios descriptores de imagen locales depende del tipo de aprendizaje automático aplicado.
En un primer tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores obtenidos a partir de los descriptores de imagen locales en un espacio discreto, siendo valores binarios o valores discretizados en más de dos valores posibles. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F obtenido a partir de la entrada de entrenamiento con cada valor posible del vector de características en el espacio discreto, de modo que los datos de referencia 35 son esencialmente una tabla de búsqueda. Esto permite seleccionar un campo vectorial de desplazamiento de referencia F sencillamente a partir de los datos de referencia 35 basándose en el vector de características 34 obtenido en la etapa S3, tal como se describe a continuación.
En caso de que el vector de características comprenda características que son valores binarios obtenidos a partir de los descriptores de imagen locales, el vector de características tiene una representación binaria. Dichos valores binarios se pueden obtener de varias formas a partir de los valores de los descriptores, por ejemplo, comparando el valor de un descriptor con un umbral, comparando el valor de dos descriptores, o comparando la distancia de una ubicación de píxel desde la posición de un punto de ojo ("punto de referencia").
Alternativamente, el vector de características puede comprender características que son valores discretizados de los descriptores de imagen locales. En este caso, son posibles más de dos valores discretos de cada característica. Se puede aplicar cualquier técnica de aprendizaje automático apropiada, por ejemplo, utilizar un árbol de decisión, un bosque de decisión, un helecho de decisión o un conjunto o una combinación de los mismos.
A modo de ejemplo, una técnica de aprendizaje automático apropiada que utiliza un vector de características que comprende características que son valores binarios obtenidos comparando un conjunto de píxeles del individuo o una combinación lineal de los mismos con un umbral, se describe en el documento de Ozuysal et al. "Fast Keypoint Recognition in Ten Lines of Code", Computer Vision and Pattern Recognition, 2007, págs. 1-8.
A modo otro ejemplo adicional, una técnica de aprendizaje automático apropiada que utiliza la distancia de una ubicación de píxel con la posición de un punto de referencia de ojo se describe en el documento de Kononenko et al., "Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, págs. 4667-4675.
A modo otro ejemplo adicional, una técnica de aprendizaje automático apropiada que utiliza un bosque de decisión aleatorio se describe en el documento de Ho, "Random Decision Forests", Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montreal, QC, 14-16 de agosto de 1995, págs. 278-282.
En un segundo tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores discretos de los descriptores de imagen locales en un espacio continuo. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F obtenido a partir de la entrada de entrenamiento con valores discretos posibles del vector de características en el espacio continuo. Esto permite obtener un campo vectorial de desplazamiento F a partir de los datos de referencia 35 mediante interpolación de los campos vectoriales de desplazamiento de referencia, basándose en la relación entre el vector de características 34 obtenido en la etapa S3 y los valores del vector de características asociados con los campos vectoriales de desplazamiento de referencia.
Se puede aplicar cualquier técnica de aprendizaje automático apropiada, por ejemplo, utilizar regresión de vectores de soporte.
A modo de ejemplo, una técnica de aprendizaje automático apropiada que utiliza regresión de vectores de soporte se describe en el documento de Drucker et al. "Support Vector Regression Machines", Advances in Neural Information Processing Systems 9, NIPS 1996, 155-161. La salida de la técnica es un conjunto continuamente variable de direcciones de interpolación que forman parte de los datos de referencia 35 y se utilizan en la interpolación.
La técnica de aprendizaje automático, independientemente de su tipo, también obtiene inherentemente la forma de los vectores de características 34 que se utiliza para obtener los campos vectoriales de desplazamiento de referencia F. Se trata de la forma de los vectores de características 34 que se obtiene en la etapa S3.
Opcionalmente, la salida de la técnica de aprendizaje automático se puede aumentar para proporcionar valores de confianza asociados con la obtención de un campo vectorial de desplazamiento a partir de los datos de referencia 35.
En caso de que el vector de características comprenda características que son valores en un espacio discreto, se obtiene un valor de confianza para cada campo vectorial de desplazamiento de referencia.
Un ejemplo de obtención de un valor de confianza es mantener, para cada índice resultante (valor del vector de características) en la tabla de búsqueda resultante, la distribución de la parte correspondiente de la imagen de entrada en los datos de entrenamiento. En este caso, el valor de confianza puede ser la cantidad de datos de entrenamiento que finalizaron con el mismo índice, dividida por el número total de ejemplares de datos de entrenamiento.
Otro ejemplo de obtención de un valor de confianza es ajustar una Gaussiana en la distribución de imágenes de entrada en los datos de entrenamiento en cada tramo indexado, y utilizar la traza de la matriz de covarianza alrededor del valor medio como el valor de confianza.
En caso de que el vector de características comprenda características que son valores discretos de los descriptores de imagen locales en un espacio continuo, los valores de confianza se pueden obtener según el procedimiento de aprendizaje automático utilizado. Por ejemplo, cuando se utiliza regresión de vectores de soporte, los valores de confianza pueden ser la inversa de la distancia máxima hasta los vectores de soporte.
Si se utilizan, los valores de confianza se almacenan como parte de los datos de referencia.
A continuación, la descripción vuelve al procedimiento de la FIGURA 3.
En la etapa S4, por lo menos un campo vectorial de desplazamiento 37 que representa una transformación de un área de imagen se obtiene utilizando el vector de características 34 obtenido en la etapa S3 para buscar los datos de referencia 35. Debido a la obtención del campo vectorial de desplazamiento 37 a partir de los datos de referencia 35, la transformación representada por el mismo corrige la mirada que se percibirá cuando se presente el par estereoscópico de imágenes 31.
En caso de que el vector de características 34 comprenda características que son valores en un espacio discreto y los campos vectoriales de desplazamiento de referencia de los datos de referencia 35 comprendan un campo vectorial de desplazamiento de referencia asociado con cada valor posible del vector de características en el espacio discreto, entonces el campo vectorial de desplazamiento para el área de imagen se obtiene seleccionando el campo de desplazamiento de referencia asociado con el valor real del vector de características obtenido 34.
En caso de que el vector de características 34 comprenda características que son valores discretos de los descriptores de imagen locales en un espacio continuo, entonces el campo vectorial de desplazamiento para el área de imagen se obtiene interpolando un campo vectorial de desplazamiento a partir de los campos vectoriales de desplazamiento de referencia, basándose en la relación entre el valor real del vector de características obtenido 34 y los valores de los vectores de características asociados con los campos vectoriales de desplazamiento de referencia. En caso de que la técnica de aprendizaje automático sea regresión de vectores de soporte, esto se puede hacer utilizando direcciones de interpolación que forman parte de los datos de referencia 35.
A continuación, se describirán algunos enfoques diferentes para la obtención del campo vectorial de desplazamiento 37 en la etapa S4.
En un primer enfoque, en la etapa S4, el campo vectorial de desplazamiento 37 se obtiene con respecto a las áreas de imagen en cada imagen 31 del par estereoscópico de forma independiente. Este primer enfoque se puede aplicar cuando los datos de referencia 35 se obtuvieron a partir de imágenes monoscópicas. Este enfoque proporciona la corrección de la mirada, pero existe el riesgo de que los campos vectoriales de desplazamiento 37 con respecto a cada imagen puedan ser inconsistentes entre sí, con el resultado de que se lleven a cabo subsiguientemente transformaciones en conflicto que pueden distorsionar el efecto estereoscópico y/o reducir la calidad de la imagen. Otros enfoques que solucionan este problema son como sigue.
En un segundo enfoque posible, los varios descriptores de imagen locales utilizados para obtener el vector de características 34 en la etapa S3 son varios descriptores de imagen locales en ambas imágenes del par estereoscópico. En este caso, los datos de referencia 35 comprenden de manera similar pares de campos vectoriales de desplazamiento de referencia para cada imagen 31 del par de imágenes estereoscópicas, siendo estos los pares de campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características 34.
Este segundo enfoque permite obtener un par de campos vectoriales de desplazamiento 35 a partir de los datos de referencia 35, que es un campo vectorial de desplazamiento para cada imagen 31 del par estereoscópico. Por definición, los campos vectoriales de desplazamiento obtenidos para cada imagen 31 del par estereoscópico son inherentemente coherentes, ya que se obtienen en conjunto a partir de los pares coherentes de campos vectoriales de desplazamiento de referencia en los datos de referencia 35.
La desventaja de este segundo enfoque es que requiere que los datos de referencia 35 se obtengan a partir de la entrada de entrenamiento para la técnica de aprendizaje automático, que son pares estereoscópicos de imágenes. Esto no crea ninguna dificultad técnica, pero puede crear algunos inconvenientes prácticos, ya que las imágenes monoscópicas están disponibles más comúnmente. En consecuencia, se pueden aplicar los siguientes enfoques cuando los datos de referencia 35 se obtienen a partir de una entrada de entrenamiento para la técnica de aprendizaje automático que sean imágenes monoscópicas.
En un tercer enfoque posible, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales que son varios descriptores de imagen locales obtenidos a partir de una imagen del par estereoscópico. En ese caso, los campos vectoriales de desplazamiento 37 se obtienen tal como se muestra en la FIGURA 6, como sigue.
En la etapa S4-1, se obtiene un primer campo vectorial de desplazamiento 37 que representa una transformación del área de imagen en dicha una imagen 31 del par estereoscópico (que puede ser cualquiera de las dos imágenes 31). Esto se realiza utilizando el vector de características obtenido 34 para buscar los datos de referencia 35.
En la etapa S4-2, se obtiene un campo vectorial de desplazamiento 37 que representa una transformación del área de imagen en la otra imagen 31 del par estereoscópico. Esto se realiza transformando el campo vectorial de desplazamiento obtenido en la etapa S4-1 según una estimación del flujo óptico entre las áreas de imagen en las imágenes 31 del par estereoscópico.
El flujo óptico representa el efecto de las diferentes ubicaciones de cámara entre las imágenes 31 del par estereoscópico. Dicho flujo óptico es conocido por sí mismo y se puede estimar utilizando técnicas conocidas, por ejemplo, tal como se describe en el documento de Zach et al., "A Duality Based Approach for Realtime TV-LI Optical Flow", Pattern Recognition (Proc. DAGM), 2007, págs. 214-223.
A modo de ejemplo, si el primer campo vectorial de desplazamiento 37 obtenido en la etapa S4-1 es para la imagen izquierda Lo, Li (donde los subíndices o e i representan, respectivamente, las imágenes de entrada y de salida), y el flujo óptico para la imagen derecha Ro se representa mediante un campo vectorial de desplazamiento G dado por G = {s (x ,y ) , í(x ,y ) }
entonces el segundo campo vectorial de desplazamiento 37 se puede obtener según
R0(x,y) = L0{x s (x ,y ) ,y í ( x ,y ) ) = L¿(x s u{x + s ,y í , y í v(x s, y í) ) Por tanto, en el tercer enfoque, los campos vectoriales de desplazamiento 37 obtenidos con respecto a cada imagen 31 del par estereoscópico son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia 35, y el otro campo vectorial de desplazamiento se obtiene a partir del mismo utilizando una transformación que mantiene la coherencia porque se obtiene según una estimación del flujo óptico entre las áreas de imagen en las imágenes 31 del par estereoscópico.
En un cuarto enfoque posible, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales que son varios descriptores de imagen locales obtenidos a partir de ambas imágenes del par estereoscópico. En ese caso, los campos vectoriales de desplazamiento 37 se obtienen tal como se muestra en la FIGURA 7, como sigue.
En la etapa S4-3, un campo vectorial de desplazamiento inicial representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional en una ubicación predeterminada con respecto a las ubicaciones de cámara de las imágenes 31, en este ejemplo entre las ubicaciones de cámara de las imágenes 31. Se puede pensar en esto como un ojo ciclópeo. Esto se realiza utilizando el vector de características obtenido 34 para buscar los datos de referencia 35 que comprenden campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. Esto significa que los datos de referencia 35 están correspondientemente estructurados, pero todavía pueden obtenerse a partir de la entrada de entrenamiento que comprende imágenes monoscópicas.
En la etapa S4-4, se obtienen campos vectoriales de desplazamiento 37 que representan transformaciones de las áreas de imagen en cada imagen 31 del par estereoscópico. Esto se realiza transformando el campo vectorial de desplazamiento inicial obtenido en la etapa S4-3 según una estimación del flujo óptico entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes 31 del par estereoscópico.
El flujo óptico representa el efecto de las diferentes ubicaciones de cámara entre la imagen nocional y las imágenes 31 del par estereoscópico. Dicho flujo óptico es conocido por sí mismo y se puede estimar utilizando técnicas conocidas, por ejemplo, tal como se describe en el documento de Zach et al., "A Duality Based Approach for Realtime TV-L1 Optical Flow", Pattern Recognition (Proc. DAGM), 2007, págs. 214-223 (citado anteriormente). A modo de ejemplo, si el flujo óptico desde la imagen izquierda L hasta la imagen derecha R se representa mediante un campo vectorial de desplazamiento G dado por
G = (s (x ,y ) , t(x ,y ) }
entonces la transformación que obtiene la imagen nocional C viene dada por
Figure imgf000011_0001
Por tanto, en este ejemplo, el campo vectorial de desplazamiento inicial F obtenido en la etapa S4-3 para esta imagen nocional C se transforma en la etapa S4-4 para obtener los campos de flujo Frc y Flc para las imágenes derecha e izquierda según
Figure imgf000011_0002
Por tanto, en el cuarto enfoque, los campos vectoriales de desplazamiento 37 obtenidos con respecto a cada imagen 31 del par estereoscópico son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia 35, representando esto una transformación nocional de un área de imagen nocional en una imagen nocional, y los campos vectoriales de desplazamiento para las imágenes izquierda y derecha se obtienen a partir de los mismos utilizando una transformación que mantiene la coherencia porque se obtiene según una estimación del flujo óptico entre las áreas de imagen en la imagen nocional y en las imágenes 31 del par estereoscópico.
En la etapa S5, cada imagen 31 del par estereoscópico se ajusta transformando las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos 37. Esto produce un par estereoscópico de imágenes ajustado 38, tal como se muestra en la FIGURA 4, en la que la mirada se ha corregido. En particular, el ajuste se puede llevar a cabo utilizando dos procedimientos alternativos, como sigue.
Un primer procedimiento para llevar a cabo la etapa S5 se muestra en la FIGURA 8 y se lleva a cabo como sigue. En la etapa S5-1, el área de imagen se transforma en el sistema de coordenadas normalizado según el campo vectorial de desplazamiento correspondiente 37 con respecto a la misma imagen, corrigiendo de este modo la mirada. Tal como se ha descrito anteriormente, para un campo vectorial de desplazamiento F la transformación del área de imagen de la imagen de entrada I(x, y) proporciona la imagen de salida O(x, y) según
0 (x ,y ) = / ( x w (x ,y ),y v (x ,y ))
En la etapa S5-2, el área de imagen transformada entregada en la etapa S5-1 se transforma desde el sistema de coordenadas normalizado, de vuelta al sistema de coordenadas original de la imagen correspondiente 31. Esto se realiza utilizando la transformación inversa a la aplicada en la etapa S2-2.
En la etapa S5-3, el área de imagen transformada entregada en la etapa S5-2 se superpone sobre la imagen correspondiente 31. Esto se puede realizar con una sustitución completa dentro de la región del ojo correspondiente al propio ojo, y una transición suavizada entre el área de imagen transformada y la imagen original 31 sobre una región de límite alrededor de la región del ojo. La anchura de la región de límite puede ser de tamaño fijo o un porcentaje del tamaño del área de imagen en la imagen original 31.
Un segundo procedimiento para llevar a cabo la etapa S5 se muestra en la FIGURA 9 y se lleva a cabo como sigue. En este segundo procedimiento alternativo, volver a realizar la transformación al sistema de coordenadas de la imagen correspondiente 31 se produce antes de la transformación del área de imagen según el campo vectorial de desplazamiento transformado F.
En la etapa S5-4, el campo vectorial de desplazamiento F se transforma desde el sistema de coordenadas normalizado, de vuelta al sistema de coordenadas original de la imagen correspondiente 31. Esto se realiza utilizando la transformación inversa a la aplicada en la etapa S2-2.
En la etapa S5-5, el área 32 de imagen en el sistema de coordenadas de la imagen 31 se transforma según el campo vectorial de desplazamiento F que se ha transformado al mismo sistema de coordenadas en la etapa S5-4. Tal como se ha descrito anteriormente, para un campo vectorial de desplazamiento F la transformación del área de imagen de la imagen de entrada I(x, y) proporciona la imagen de salida O(x, y) según
0(x,y) = l (x u(x ,y) ,y v( x ,y ))
pero ahora esto se lleva a cabo en el sistema de coordenadas de la imagen original 31.
La etapa S5-6 es la misma que la S5-3. Por tanto, en la etapa S5-6, el área de imagen transformada entregada en la etapa S5-5 se superpone sobre la imagen correspondiente 31. Esto se puede realizar con una sustitución completa dentro de una región del ojo correspondiente al propio ojo, y una transición suavizada entre el área de imagen transformada y la imagen original 31 sobre una región de límite alrededor de la región del ojo. La anchura de la región de límite puede ser de tamaño fijo o un porcentaje del tamaño del área de imagen en la imagen original 31. A continuación, se analizarán los campos vectoriales de desplazamiento 37 utilizados en la etapa S5.
Una opción es que los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4 con respecto a las imágenes izquierda y derecha se utilicen directamente en la etapa S5. Es decir, el área de imagen con respecto a cada imagen 31 del área estereoscópica se transforma según el campo vectorial de desplazamiento 37 con respecto a esa imagen 31. Esto es apropiado si los campos vectoriales de desplazamiento 37 son lo suficientemente precisos, por ejemplo, porque se han obtenido a partir de datos de referencia 35 que se obtienen en sí mismos a partir de imágenes estereoscópicas según el segundo enfoque descrito anteriormente.
Una opción alternativa según un quinto enfoque es que se obtenga y se utilice un campo vectorial de desplazamiento combinado 39. Esto se puede aplicar en combinación con cualquiera del primer al cuarto enfoques analizados anteriormente. En este caso, la etapa S5 incluye adicionalmente la etapa S5-a, tal como se muestra en la FIGURA 10, que se lleva a cabo antes de la etapa S5-1 en el primer procedimiento de la FIGURA 8 o antes de la etapa S5-4 en el segundo procedimiento de la FIGURA 9. En la etapa S5-a, se obtiene un campo vectorial de desplazamiento combinado 39 a partir de los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4 con respecto a las áreas de imagen en cada imagen 31 del par estereoscópico.
El resto de la etapa S5 se lleva a cabo a continuación utilizando el campo vectorial de desplazamiento combinado 39 con respecto a cada imagen 31. Es decir, en el primer procedimiento de la FIGURA 8, el área de imagen 33 con respecto a cada imagen 31 del par estereoscópico se transforma en la etapa S5-1 según el campo vectorial de desplazamiento combinado 39. De manera similar, en el segundo procedimiento de la FIGURA 9, en la etapa S5-4 se transforma el campo vectorial de desplazamiento combinado 39 y en la etapa S5-5 se transforma el área de imagen 33 con respecto a cada imagen 31 del par estereoscópico según ese campo vectorial de desplazamiento combinado 39.
En este caso, los campos vectoriales de desplazamiento para cada imagen son coherentes porque son iguales. La combinación en la etapa S5-la se puede llevar a cabo de cualquier forma apropiada.
En un ejemplo, la combinación en la etapa S5-la puede ser un promedio sencillo de los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4.
En otro ejemplo, la combinación en la etapa S5-la puede ser un promedio que se pondera mediante un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido 37. En este caso, los valores de confianza forman parte de los datos de referencia 35, de la manera descrita anteriormente, y en la etapa S4 se obtienen los valores de confianza a partir de los datos de referencia 35, junto con el campo vectorial de desplazamiento obtenido 37.
A modo de ejemplo, denotando el campo vectorial de desplazamiento obtenido 37 como Fi, el campo vectorial de desplazamiento combinado 39 como Favg y los valores de confianza como ai, entonces el campo vectorial de desplazamiento combinado 39 se puede obtener como
p = 1 aiFi
avB l a ,
En el ejemplo descrito anteriormente, la mirada se corrige para un observador de destino 24 en una ubicación del observador que es una posición de visualización normal perpendicular al centro de la ubicación de pantalla, por ejemplo, como se muestra mediante el contorno sólido del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2. Esto es suficiente en muchas situaciones. Sin embargo, a continuación, se describirá una modificación opcional que permite corregir la mirada para un observador de destino 24 en una ubicación del observador diferente, por ejemplo, como se muestra mediante el contorno punteado del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2.
En este caso, el procedimiento comprende, además, utilizar datos de ubicación 40 que representan la ubicación del observador con respecto a la ubicación de pantalla del par estereoscópico de imágenes 31. Estos datos de ubicación 40 se pueden obtener en el dispositivo de destino 20, por ejemplo, tal como se describe a continuación. En ese caso, si el procedimiento no se lleva a cabo en el dispositivo de destino 20, entonces los datos de ubicación 40 se transmiten al dispositivo en el que se lleva a cabo el procedimiento.
La ubicación relativa del observador puede tener en cuenta la ubicación del observador con respecto a la pantalla 21. Esto se puede determinar utilizando un sistema de cámaras en el dispositivo de destino 20 y un módulo de seguimiento de cabeza apropiado para detectar la ubicación del observador de destino 24.
La ubicación relativa del observador puede suponer que la imagen se muestra centrada en la pantalla 21. Alternativamente, la ubicación relativa del observador puede tener en cuenta la ubicación del observador con respecto a la pantalla 21 y la ubicación de la imagen presentada en la pantalla 21. En este caso, la ubicación de la imagen presentada en la pantalla 21 se puede obtener a partir de la geometría de la pantalla (por ejemplo, la posición y el área de la ventana de pantalla y el tamaño de la pantalla 21).
Para tener en cuenta diferentes ubicaciones de observador, los datos de referencia 34 comprenden varios conjuntos de campos vectoriales de desplazamiento de referencia, estando asociado cada conjunto con ubicaciones de observador diferentes. Esto se consigue haciendo que la entrada de entrenamiento para la técnica de aprendizaje automático comprenda varios segundos conjuntos de imágenes de salida, siendo cada segundo conjunto imágenes de cada individuo con la mirada correcta para una ubicación del observador respectiva, predeterminada, con respecto a la ubicación de pantalla en la que se va a presentar la imagen. Por tanto, en la etapa S4, los campos vectoriales de desplazamiento 37 se obtienen buscando el conjunto de campos vectoriales de desplazamiento de referencia asociados con la ubicación del observador representada por los datos de ubicación.
Tal como se ha descrito anteriormente, el procedimiento se puede implementar en un procesador 30 de imagen proporcionado en diversos dispositivos diferentes. A modo de ejemplo no limitativo, a continuación, se describirá una implementación particular en un sistema de telecomunicaciones que se muestra en la FIGURA 11 y se dispone como sigue.
En esta implementación, el dispositivo de origen 10 y el dispositivo de destino 10 se comunican sobre dicha red de telecomunicaciones 50. Para la comunicación sobre la red de telecomunicaciones 50, el dispositivo de origen 10 incluye una interfaz de telecomunicaciones 17 y el dispositivo de destino 20 incluye una interfaz de telecomunicaciones 27.
En esta implementación, el procesador 30 de imagen está dispuesto en el dispositivo de origen 10 y recibe el par estereoscópico de imágenes directamente desde el sistema 12 de cámaras. La interfaz de telecomunicaciones 17 se dispone para transmitir el par estereoscópico de imágenes ajustado 38 sobre la red de telecomunicaciones 50 al dispositivo de destino 20 para presentarlo en el mismo.
El dispositivo de destino 20 incluye un módulo 28 de presentación de imágenes que controla la pantalla 26. El par estereoscópico de imágenes ajustado 38 se recibe en el dispositivo de destino 20 mediante la interfaz de telecomunicaciones 27 y se proporciona al módulo 28 de presentación de imágenes, lo que hace que se muestre en la pantalla 26.
Los siguientes elementos del dispositivo de destino 20 se incluyen opcionalmente en caso de que el procedimiento corrija la mirada para un observador de destino 24 en una ubicación del observador distinta de la posición de visualización normal perpendicular al centro de la ubicación de pantalla. En este caso, el dispositivo de destino 20 incluye un sistema de cámaras 23 y un módulo de ubicación del observador 29. El sistema de cámaras 23 captura una imagen del observador de destino 24. El módulo de ubicación del observador 29 obtiene los datos de ubicación 40. El módulo de ubicación del observador 29 incluye un módulo de seguimiento de cabeza que utiliza la salida del sistema de cámaras 23 para detectar la ubicación del observador de destino 24. El módulo de la ubicación de observador 29. Si la ubicación relativa del observador también tiene en cuenta la ubicación de la imagen mostrada en la pantalla 21, el módulo de la ubicación de observador 29 obtiene del módulo 28 de presentación de imagen la ubicación de la imagen mostrada en la pantalla 21. La interfaz de telecomunicaciones 17 está dispuesta para transmitir los datos de ubicación 40 sobre la red de telecomunicaciones 50 al dispositivo de origen 10 para su utilización por el mismo.
Aunque la descripción anterior se refiere a un procedimiento aplicado a imágenes proporcionadas desde un dispositivo de origen 10 a un dispositivo de destino 20, el procedimiento puede aplicarse igualmente a imágenes proporcionadas en el sentido opuesto desde el dispositivo de destino 20 al dispositivo de origen 10, en cuyo caso el dispositivo de destino 20 se convierte en la práctica en el "dispositivo de origen" y el dispositivo de origen 10 se convierte en la práctica en el "dispositivo de destino". Si las imágenes se proporcionan bidireccionalmente, las etiquetas "origen" y "destino" se pueden aplicar a ambos dispositivos, dependiendo del sentido de comunicación que se considere.
Aunque anteriormente se han descrito diversas realizaciones según los principios dados a conocer en la presente memoria, se debe entender que se han presentado solo a modo de ejemplo, y no de limitación. Por tanto, la extensión y el alcance de la presente invención no se deben limitar por ninguna de las realizaciones ejemplares descritas anteriormente, sino que deben definirse únicamente según las reivindicaciones adjuntas.
Asimismo, las ventajas y características anteriores se dan a conocer en las realizaciones descritas, pero no deben limitar la aplicación de dichas reivindicaciones a procesos y estructuras que consigan alguna o todas las ventajas anteriores.

Claims (15)

REIVINDICACIONES
1. Procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento
en cada imagen (31), identificar áreas de imagen (S2) que contienen los ojos izquierdo y derecho de la cabeza, respectivamente;
con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de:
obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y
obtener (S4) un campo vectorial de desplazamiento que representa una transformación de un área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).
2. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en cada imagen (31) de las imágenes multivista, y
dichos datos de referencia (35) comprenden pares de campos vectoriales de desplazamiento de referencia para cada imagen de las imágenes multivista, los pares de campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características (34).
3. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en una imagen (31) de las imágenes multivista,
dicha etapa de obtener (S4) campos vectoriales de desplazamiento comprende:
obtener un campo vectorial de desplazamiento que representa una transformación del área (33) de imagen en dicha una imagen de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
obtener un campo vectorial de desplazamiento (37) que representa una transformación del área (33) de imagen en la otra o las otras imágenes multivista transformando el campo vectorial de desplazamiento obtenido (37) que representa una transformación del área (33) de imagen en dicha una imagen (31) de las imágenes multivista, según una estimación del flujo óptico entre las áreas de imagen en dicha una imagen (31) de las imágenes multivista y en la otra o las otras imágenes multivista.
4. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en ambas imágenes (31) del par estereoscópico,
dicha etapa de obtener (S4) campos vectoriales de desplazamiento comprende:
obtener un campo vectorial de desplazamiento inicial (37) que representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes multivista, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
obtener campos vectoriales de desplazamiento (37) que representan una transformación de las áreas (33) de imagen en cada imagen (31) de las imágenes multivista transformando el campo vectorial de desplazamiento inicial según una estimación de los flujos ópticos entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes de las imágenes multivista.
5. Procedimiento, según la reivindicación 4, en el que las imágenes multivista son un par estereoscópico de imágenes (31) y la ubicación de cámara nocional está entre las ubicaciones de cámara de las imágenes del par estereoscópico.
6. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
la etapa de obtener (S4) un campo vectorial de desplazamiento comprende obtener campos vectoriales de desplazamiento (37) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y la etapa (S5) de transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se lleva a cabo según los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista,
7. Procedimiento, según cualquiera de las reivindicaciones 1 a 5, en el que
la etapa (S4) de obtener un campo vectorial de desplazamiento comprende obtener campos vectoriales de desplazamiento (37) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y, además, obtener un campo vectorial de desplazamiento combinado (39) a partir de los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y
la etapa (S5) de transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se lleva a cabo según el campo vectorial de desplazamiento combinado (39).
8. Procedimiento, según la reivindicación 7, en el que
los campos vectoriales de desplazamiento de referencia se asocian, además, con valores de confianza, la etapa de obtener campos vectoriales de desplazamiento (S4) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista comprende, además, obtener un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido (37), y
el campo vectorial de desplazamiento combinado (39) es un promedio de los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, ponderado por los valores de confianza obtenidos.
9. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
el procedimiento utiliza datos de ubicación (40) que representan una ubicación del observador con respecto a una ubicación de pantalla de las imágenes multivista,
dichos datos de referencia (35) comprenden varios conjuntos de campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34), conjuntos que están asociados con diferentes ubicaciones de observador, y
dicha etapa (S4) de obtener campos vectoriales de desplazamiento que representan una transformación de un área (33) de imagen se lleva a cabo utilizando el vector de características obtenido para buscar el conjunto de campos vectoriales de desplazamiento de referencia asociado con la ubicación del observador representada por los datos de ubicación (40).
10. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
el vector de características (34) comprende características que son valores obtenidos de los descriptores de imagen locales en un espacio discreto,
los campos vectoriales de desplazamiento de referencia comprenden un campo vectorial de desplazamiento de referencia asociado con cada posible valor del vector de características (34) en el espacio discreto, y
la etapa (S4) de obtener un campo vectorial de desplazamiento para el área (33) de imagen comprende seleccionar el campo de desplazamiento de referencia asociado con el valor real del vector de características obtenido (34).
11. Procedimiento, según cualquiera de las reivindicaciones 1 a 9, en el que
el vector de características (34) comprende características que son valores discretos de los descriptores de imagen locales en un espacio continuo, y
la etapa (S4) de obtener un campo vectorial de desplazamiento para el área (33) de imagen comprende interpolar un campo vectorial de desplazamiento (37) a partir de los campos vectoriales de desplazamiento de referencia basándose en la relación entre el valor real del vector de características obtenido (34) y los valores de los vectores de características asociados con los campos vectoriales de desplazamiento de referencia.
12. Programa informático capaz de ejecutarse mediante un procesador (30) y dispuesto en su ejecución para hacer que el procesador (30) lleve a cabo el procedimiento según cualquiera de las reivindicaciones anteriores.
13. Dispositivo para ajustar imágenes multivista de una cabeza para corregir la mirada, comprendiendo el dispositivo un procesador (30) de imagen dispuesto para procesar las imágenes multivista de una cabeza del siguiente modo: en cada imagen (31), identificar áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza, respectivamente;
con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas (33) de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de:
obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y
obtener (S4) un campo vectorial de desplazamiento que representa una transformación del área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).
14. Dispositivo, según la reivindicación 13, que comprende, además, un sistema (23) de cámaras dispuesto para capturar las imágenes multivista y/o una interfaz de telecomunicaciones dispuesta para transmitir las imágenes ajustadas sobre una red de telecomunicaciones (50) a un dispositivo de destino para su presentación en el mismo.
15. Dispositivo, según la reivindicación 13 o 14, en el que las imágenes multivista son un par estereoscópico de imágenes.
ES17736268T 2016-01-05 2017-01-04 Corrección de la mirada en imágenes multivista Active ES2912310T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662274897P 2016-01-05 2016-01-05
PCT/US2017/012203 WO2017120247A1 (en) 2016-01-05 2017-01-04 Gaze correction of multi-view images

Publications (1)

Publication Number Publication Date
ES2912310T3 true ES2912310T3 (es) 2022-05-25

Family

ID=59226845

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17736268T Active ES2912310T3 (es) 2016-01-05 2017-01-04 Corrección de la mirada en imágenes multivista

Country Status (5)

Country Link
US (4) US10321123B2 (es)
EP (1) EP3400706B1 (es)
CN (2) CN108463787B (es)
ES (1) ES2912310T3 (es)
WO (1) WO2017120247A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
ES2912310T3 (es) 2016-01-05 2022-05-25 Reald Spark Llc Corrección de la mirada en imágenes multivista
US10663755B2 (en) * 2016-04-28 2020-05-26 Hewlett-Packard Development Company, L.P. Digital displays devices
EP4293574A3 (en) * 2017-08-08 2024-04-03 RealD Spark, LLC Adjusting a digital representation of a head region
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US11042992B2 (en) 2018-08-03 2021-06-22 Logitech Europe S.A. Method and system for detecting peripheral device displacement
CN109407828A (zh) * 2018-09-11 2019-03-01 上海科技大学 一种凝视点估计方法及系统、存储介质及终端
CN108965771B (zh) 2018-09-29 2021-01-26 京东方科技集团股份有限公司 一种视频通话控制装置及方法、视频通话系统
US20220217301A1 (en) * 2019-04-15 2022-07-07 Shanghai New York University Systems and methods for interpolative three-dimensional imaging within the viewing zone of a display
US11360555B2 (en) 2019-05-20 2022-06-14 Cyberlink Corp. Systems and methods for automatic eye gaze refinement
US11347308B2 (en) * 2019-07-26 2022-05-31 Samsung Electronics Co., Ltd. Method and apparatus with gaze tracking
CN112929649A (zh) * 2019-12-05 2021-06-08 北京芯海视界三维科技有限公司 多视点裸眼3d显示屏、多视点裸眼3d显示终端

Family Cites Families (505)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1128979A (en) 1912-06-01 1915-02-16 Walter Hess Stereoscopic picture.
US1970311A (en) 1931-02-14 1934-08-14 Bell Telephone Labor Inc Projection of images for viewing in stereoscopic relief
US2133121A (en) 1936-04-02 1938-10-11 Richard I Stearns Stereoscopic screen and method stereoscopic vision
US2247969A (en) 1937-12-31 1941-07-01 Adlake Co Edge glow lighting system
US2480178A (en) 1946-05-08 1949-08-30 Ivan H Zinberg Light conductor
US2810905A (en) 1949-08-23 1957-10-22 Sperry Rand Corp High frequency directive beam apparatus
US3016475A (en) 1960-08-19 1962-01-09 Frederick A Kirsten Phase differential indicating circuit
US3409351A (en) 1966-02-07 1968-11-05 Douglas F. Winnek Composite stereography
DE2011417A1 (de) 1970-03-11 1971-09-23 Agfa Gevaert Ag Projektionsschirm für Projektion mit dreidimensionalem Eindruck
US3992841A (en) 1974-08-30 1976-11-23 Ward Jr Robertson Panel construction and projection screen constructed from such panels
US4528617A (en) 1982-02-08 1985-07-09 Sheltered Workshop For The Disabled, Inc. Light distribution apparatus
US4542958A (en) 1983-01-13 1985-09-24 Vasco, Ltd. Variable aspect display
JPS6134583A (ja) 1984-07-26 1986-02-18 シャープ株式会社 照明装置
US4829365A (en) 1986-03-07 1989-05-09 Dimension Technologies, Inc. Autostereoscopic display with illuminating lines, light valve and mask
US4804253A (en) 1986-05-15 1989-02-14 General Electric Company Lenticular filter for display devices
US4807978A (en) 1987-09-10 1989-02-28 Hughes Aircraft Company Color display device and method using holographic lenses
US5050946A (en) 1990-09-27 1991-09-24 Compaq Computer Corporation Faceted light pipe
DE4102895C1 (es) 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
US6392689B1 (en) 1991-02-21 2002-05-21 Eugene Dolgoff System for displaying moving images pseudostereoscopically
JP2566087B2 (ja) 1992-01-27 1996-12-25 株式会社東芝 有色マイクロレンズアレイ及びその製造方法
JP2746790B2 (ja) 1992-03-02 1998-05-06 富士写真フイルム株式会社 立体画像記録方法および立体画像記録装置
US6002829A (en) 1992-03-23 1999-12-14 Minnesota Mining And Manufacturing Company Luminaire device
US5528720A (en) 1992-03-23 1996-06-18 Minnesota Mining And Manufacturing Co. Tapered multilayer luminaire devices
JPH05289208A (ja) 1992-04-15 1993-11-05 Fuji Photo Film Co Ltd 立体画像記録方法および立体画像記録装置
US5459592A (en) 1992-04-24 1995-10-17 Sharp Kabushiki Kaisha Projection display system including a collimating tapered waveguide or lens with the normal to optical axis angle increasing toward the lens center
US5278608A (en) 1992-05-19 1994-01-11 Eastman Kodak Company Electronically printed depth photography system with improved viewing range
US5347644A (en) 1992-06-11 1994-09-13 Sedlmayr Steven R Three-dimensional image display device and systems and methods for implementation thereof
US5903388A (en) 1992-06-11 1999-05-11 Sedlmayr Steven R High efficiency electromagnetic beam projector and systems and method for implementation thereof
CA2143617C (en) 1992-09-09 2004-02-17 Jesse B. Eichenlaub Stroboscopic illumination system for video displays
US5896225A (en) 1993-05-24 1999-04-20 Deutsche Thomson Brandt Gmbh Device for stereoscopic image observation within an increased observation area
US5796451A (en) 1993-10-23 1998-08-18 Samsung Display Devices Co., Ltd. Liquid crystal cell with an external color filter
GB2284068A (en) 1993-11-12 1995-05-24 Sharp Kk Three-dimensional projection display apparatus
US5581402A (en) 1993-11-22 1996-12-03 Eastman Kodak Company Method for producing an improved stereoscopic picture and stereoscopic picture obtained according to this method
EP1209508B1 (en) 1993-12-01 2004-10-27 Sharp Kabushiki Kaisha Display for 3D images
GB2294350A (en) 1994-10-21 1996-04-24 Sharp Kk Light source and display
CA2178325A1 (en) 1993-12-21 1995-06-29 Andrew J. Ouderkirk Reflective polarizer with brightness enhancement
JPH09508476A (ja) 1994-01-31 1997-08-26 エス・ディー・エル・インコーポレイテッド レーザ照明ディスプレイシステム
US5510831A (en) 1994-02-10 1996-04-23 Vision Iii Imaging, Inc. Autostereoscopic imaging apparatus and method using suit scanning of parallax images
US5588526A (en) 1994-04-01 1996-12-31 Insight, Inc. Flat box system with multiple view optics
EP0760962B1 (en) 1994-04-11 2002-10-02 Minnesota Mining And Manufacturing Company Tapered multilayer luminaire device
US5933276A (en) 1994-04-13 1999-08-03 Board Of Trustees, University Of Arkansas, N.A. Aberration-free directional image window sheet
JPH0870475A (ja) 1994-06-23 1996-03-12 Sanyo Electric Co Ltd 立体動画像の符号化・復号化方法及び装置
US5575549A (en) 1994-08-12 1996-11-19 Enplas Corporation Surface light source device
US6184969B1 (en) 1994-10-25 2001-02-06 James L. Fergason Optical display system and method, active and passive dithering using birefringence, color image superpositioning and display enhancement
GB2296617A (en) 1994-12-29 1996-07-03 Sharp Kk Observer tracking autosteroscopic display
JPH08254617A (ja) 1995-01-30 1996-10-01 Hoshi Seisakusho:Kk 面発光装置
GB2297876A (en) 1995-02-09 1996-08-14 Sharp Kk Observer tracking autostereoscopic display
JP3459721B2 (ja) 1995-05-22 2003-10-27 キヤノン株式会社 立体画像表示方法及びそれを用いた立体画像表示装置
JP3516774B2 (ja) 1995-06-14 2004-04-05 三菱電機株式会社 立体映像表示装置
JPH0915532A (ja) 1995-06-29 1997-01-17 Canon Inc 立体画像表示方法及びそれを用いた立体画像表示装置
US6023315A (en) 1995-07-04 2000-02-08 Sharp Kabushiki Kaisha Spatial light modulator and directional display
GB9513658D0 (en) 1995-07-05 1995-09-06 Philips Electronics Uk Ltd Autostereoscopic display apparatus
JP3286138B2 (ja) 1995-08-03 2002-05-27 日東電工株式会社 導光板、面光源装置、偏光光源装置及び液晶表示装置
US6061179A (en) 1996-01-23 2000-05-09 Canon Kabushiki Kaisha Stereoscopic image display apparatus with two-/three-dimensional image display switching function
EP0788008B1 (en) 1996-01-31 2006-04-26 Canon Kabushiki Kaisha Stereoscopic image display apparatus whose observation area is widened
US6064424A (en) 1996-02-23 2000-05-16 U.S. Philips Corporation Autostereoscopic display apparatus
TW413993B (en) 1996-03-15 2000-12-01 Sharp Kk Image display device
IT1285368B1 (it) 1996-05-27 1998-06-03 Fiat Ricerche Dispositivo a microfiltri e microchopper per la selezione dinamica di colori ed immagini.
JP2865618B2 (ja) 1996-05-31 1999-03-08 嶋田プレシジョン株式会社 導光板および導光板アセンブリ
GB2320156A (en) 1996-12-07 1998-06-10 Sharp Kk Directional display and method of making a mask for a directional display
GB9618593D0 (en) 1996-09-06 1996-10-16 Central Research Lab Ltd Apparatus for displaying an image
GB2321815A (en) 1997-02-04 1998-08-05 Sharp Kk Autostereoscopic display with viewer position indicator
GB2317291A (en) 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
DE19638081A1 (de) 1996-09-19 1998-03-26 Hella Kg Hueck & Co Leuchte für Fahrzeuge
GB2317710A (en) 1996-09-27 1998-04-01 Sharp Kk Spatial light modulator and directional display
GB2317771A (en) 1996-09-27 1998-04-01 Sharp Kk Observer tracking directional display
US5959702A (en) 1996-10-04 1999-09-28 Goodman; John Mott Lensless video projector
JP3397602B2 (ja) 1996-11-11 2003-04-21 富士通株式会社 画像表示装置及び方法
GB9623682D0 (en) 1996-11-14 1997-01-08 Philips Electronics Nv Autostereoscopic display apparatus
US6219113B1 (en) 1996-12-17 2001-04-17 Matsushita Electric Industrial Co., Ltd. Method and apparatus for driving an active matrix display panel
US5771066A (en) 1997-01-03 1998-06-23 Barnea; Daniel I. Three dimensional display device
JP3441911B2 (ja) 1997-02-20 2003-09-02 キヤノン株式会社 情報処理装置及び方法
US6283858B1 (en) 1997-02-25 2001-09-04 Bgk International Incorporated Method for manipulating images
EP0970589B1 (en) 1997-03-27 2004-08-11 Litton Systems, Inc. Autostereoscopic projection system
GB2324428A (en) 1997-04-17 1998-10-21 Sharp Kk Image tracking; observer tracking stereoscopic display
EP1103840B1 (en) 1997-06-12 2008-08-13 Sharp Kabushiki Kaisha Vertically-aligned (va) liquid crystal display device
GB9715397D0 (en) 1997-07-23 1997-09-24 Philips Electronics Nv Lenticular screen adaptor
DE19737449A1 (de) 1997-08-22 1999-02-25 Hertz Inst Heinrich Vorrichtung zum Nachführen eines autostereoskopischen Flachbildschirms
JP3199313B2 (ja) 1997-11-10 2001-08-20 キヤノン株式会社 反射型液晶表示装置及びそれを用いた投射型液晶表示装置
US6295109B1 (en) 1997-12-26 2001-09-25 Sharp Kabushiki Kaisha LCD with plurality of pixels having reflective and transmissive regions
US7239293B2 (en) 1998-01-21 2007-07-03 New York University Autostereoscopic display
JP3642381B2 (ja) 1998-02-26 2005-04-27 日東電工株式会社 導光板、面光源装置及び反射型液晶表示装置
JPH11259007A (ja) 1998-03-10 1999-09-24 Sony Corp 反射型表示装置
US20040108971A1 (en) 1998-04-09 2004-06-10 Digilens, Inc. Method of and apparatus for viewing an image
DE69910757T2 (de) * 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
JP2002512976A (ja) 1998-04-27 2002-05-08 プレーシス ファーマスーティカルズ インコーポレイテッド のぼせおよび女性化乳房を処置するための方法
US7116323B2 (en) 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
DE19827590C2 (de) 1998-06-20 2001-05-03 Christoph Grosmann Verfahren und Vorrichtung zur Autostereoskopie
JP3862422B2 (ja) 1998-07-10 2006-12-27 キヤノン株式会社 画像読取装置
JP2000048618A (ja) 1998-07-29 2000-02-18 Casio Comput Co Ltd 照明パネルおよびそれを用いた表示装置
US6456340B1 (en) 1998-08-12 2002-09-24 Pixonics, Llc Apparatus and method for performing image transforms in a digital display system
US6144118A (en) 1998-09-18 2000-11-07 General Scanning, Inc. High-speed precision positioning apparatus
US6476850B1 (en) 1998-10-09 2002-11-05 Kenneth Erbey Apparatus for the generation of a stereoscopic display
US6816158B1 (en) 1998-10-30 2004-11-09 Lemelson Jerome H Three-dimensional display system
JP2000200049A (ja) 1998-11-02 2000-07-18 Sony Corp 反射型表示装置
US6642984B1 (en) 1998-12-08 2003-11-04 Fujitsu Display Technologies Corporation Liquid crystal display apparatus having wide transparent electrode and stripe electrodes
GB9828287D0 (en) 1998-12-23 1999-02-17 Secr Defence Brit Image display system
US6256447B1 (en) 1998-12-31 2001-07-03 Physical Optics Corporation Backlight for correcting diagonal line distortion
JP2000231339A (ja) 1999-02-10 2000-08-22 Dainippon Printing Co Ltd 表示装置
US7088333B1 (en) 1999-03-12 2006-08-08 Matsushita Electric Industrial Co., Ltd. Surface lighting device and portable terminal using the same
DE69934478T2 (de) 1999-03-19 2007-09-27 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen
US6464365B1 (en) 1999-07-23 2002-10-15 Bae Systems Information And Electronic Systems Integration Inc. Light collimator for liquid crystal displays
US6305813B1 (en) 1999-08-11 2001-10-23 North American Lighting, Inc. Display device using a light guide for exterior automotive lighting
GB2354389A (en) 1999-09-15 2001-03-21 Sharp Kk Stereo images with comfortable perceived depth
US6859240B1 (en) 2000-01-27 2005-02-22 Mems Optical Inc. Autostereoscopic display
JP4262368B2 (ja) 1999-09-22 2009-05-13 株式会社日立製作所 照明装置、及びこれを用いた表示装置
CA2384825C (en) 1999-10-08 2006-05-30 3M Innovative Properties Company Display illumination device and method of enhancing brightness in a display illumination device
JP3457591B2 (ja) 1999-10-08 2003-10-20 インターナショナル・ビジネス・マシーンズ・コーポレーション 液晶表示装置
KR100307854B1 (ko) 1999-11-10 2001-11-02 전병우 단일카메라를 이용한 시선 맞춤 보정 방법 및 그 장치
US6975755B1 (en) * 1999-11-25 2005-12-13 Canon Kabushiki Kaisha Image processing method and apparatus
GB0003311D0 (en) 2000-02-15 2000-04-05 Koninkl Philips Electronics Nv Autostereoscopic display driver
US6347874B1 (en) 2000-02-16 2002-02-19 3M Innovative Properties Company Wedge light extractor with risers
HU0000752D0 (en) 2000-02-21 2000-04-28 Pixel element for three-dimensional screen
US7657083B2 (en) * 2000-03-08 2010-02-02 Cyberextruder.Com, Inc. System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images
AU2001245720A1 (en) 2000-03-15 2001-09-24 Arc International Plc Method and apparatus for processor code optimization using code compression
CA2403094C (en) 2000-03-17 2011-07-12 Zograph, Llc High acuity lens system
US6806898B1 (en) 2000-03-20 2004-10-19 Microsoft Corp. System and method for automatically adjusting gaze and head orientation for video conferencing
US6847354B2 (en) 2000-03-23 2005-01-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three dimensional interactive display
JP3968742B2 (ja) 2000-03-30 2007-08-29 株式会社エンプラス 導光板、面光源装置及び表示装置
US6975455B1 (en) 2000-04-18 2005-12-13 3M Innovative Properties Company Transflective layer for displays
JP4412441B2 (ja) 2000-07-11 2010-02-10 日本電気株式会社 液晶表示装置
JP3554257B2 (ja) 2000-07-31 2004-08-18 キヤノン株式会社 表示制御装置及び方法
US6373637B1 (en) 2000-09-13 2002-04-16 Eastman Kodak Company Diagonal lenticular image system
GB0024112D0 (en) 2000-10-03 2000-11-15 Cambridge 3D Display Ltd Flat panel display
US6422713B1 (en) 2000-10-17 2002-07-23 Ford Global Technologies, Inc. Thin-sheet collimation optics for diode laser illumination systems for use in night vision and exterior lighting applications
GB0028800D0 (en) 2000-11-25 2001-01-10 Cambridge 3D Display Ltd Achromatic flat panel display
GB0029340D0 (en) 2000-11-30 2001-01-17 Cambridge 3D Display Ltd Flat panel camera
AU2002217579A1 (en) 2000-12-18 2002-07-01 Byoungho Lee Relfecting three-dimensional display system
US6891200B2 (en) 2001-01-25 2005-05-10 Matsushita Electric Industrial Co., Ltd. Light-emitting unit, light-emitting unit assembly, and lighting apparatus produced using a plurality of light-emitting units
GB0108838D0 (en) 2001-04-07 2001-05-30 Cambridge 3D Display Ltd Far field display
US7001058B2 (en) 2001-05-16 2006-02-21 Ben-Zion Inditsky Ultra-thin backlight
EP1397610B1 (en) 2001-06-01 2007-12-12 Philips Lumileds Lighting Company LLC Compact illumination system and display device
EP1412803A2 (en) 2001-07-13 2004-04-28 Mems Optical, Inc. Autostereoscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images
GB0118866D0 (en) 2001-08-02 2001-09-26 Cambridge 3D Display Ltd Shaped taper flat panel display
GB0119176D0 (en) 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
US7190825B2 (en) 2001-08-17 2007-03-13 Geo-Rae Co., Ltd. Portable communication device for stereoscopic image display and transmission
IL160902A0 (en) 2001-09-25 2004-08-31 Cambridge Flat Projection Flat-panel projection display
KR100403599B1 (ko) 2001-11-06 2003-10-30 삼성전자주식회사 조명계 및 이를 채용한 프로젝션 시스템
US7365908B2 (en) 2001-11-08 2008-04-29 Eugene Dolgoff Tiling of panels for multiple-image displays
TW594119B (en) 2001-12-21 2004-06-21 Au Optronics Corp Backlight module for thin film transistor liquid crystal display
JP2003207743A (ja) 2002-01-16 2003-07-25 Olympus Optical Co Ltd 立体観察装置
JP4174216B2 (ja) 2002-01-18 2008-10-29 フジノン株式会社 バリア層を有する光学素子、光学系および投映プロジェクタ装置
JP3980890B2 (ja) 2002-01-23 2007-09-26 シャープ株式会社 導光板並びにそれを備えた光源装置及び表示装置
US7153017B2 (en) 2002-01-31 2006-12-26 Mitsubishi Rayon Co., Ltd. Light deflection element and light source apparatus using the same
US7256881B2 (en) 2002-02-15 2007-08-14 Coopervision, Inc. Systems and methods for inspection of ophthalmic lenses
JP2003262734A (ja) 2002-03-08 2003-09-19 Citizen Electronics Co Ltd 導光板
JP4348457B2 (ja) 2002-03-13 2009-10-21 ドルビー ラボラトリーズ ライセンシング コーポレイション 高ダイナミックレンジのディスプレイ、ディスプレイコントローラ及び画像表示方法
JP3867597B2 (ja) 2002-03-19 2007-01-10 セイコーエプソン株式会社 電気光学装置並びに電子機器及び投射型表示装置
CN1306295C (zh) 2002-03-28 2007-03-21 皇家飞利浦电子股份有限公司 紧凑型照明系统及显示器件
US6771303B2 (en) * 2002-04-23 2004-08-03 Microsoft Corporation Video-teleconferencing system with eye-gaze correction
US7515173B2 (en) * 2002-05-23 2009-04-07 Microsoft Corporation Head pose tracking system
US20040046709A1 (en) 2002-09-05 2004-03-11 Kazutora Yoshino 3 Dimensional image projector and holodeck
KR100513718B1 (ko) 2002-06-20 2005-09-07 삼성전자주식회사 평판표시소자용 조명장치
US8100552B2 (en) 2002-07-12 2012-01-24 Yechezkal Evan Spero Multiple light-source illuminating system
US9955551B2 (en) 2002-07-12 2018-04-24 Yechezkal Evan Spero Detector controlled illuminating system
US6919892B1 (en) 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method
JP3969252B2 (ja) 2002-08-27 2007-09-05 日本電気株式会社 立体画像平面画像切換表示装置及び携帯端末装置
JP2004095390A (ja) 2002-08-30 2004-03-25 Fujitsu Display Technologies Corp 照明装置及び表示装置
GB2393344A (en) 2002-09-17 2004-03-24 Sharp Kk Autostereoscopic display
JP3930021B2 (ja) 2002-09-19 2007-06-13 三菱電機株式会社 表示装置および表示装置を備えた電子機器
JP4398141B2 (ja) 2002-10-31 2010-01-13 パイオニア株式会社 表示装置及び方法
KR100499133B1 (ko) 2002-11-04 2005-07-04 삼성전자주식회사 백라이트 유닛
US20040263969A1 (en) 2002-11-25 2004-12-30 Lenny Lipton Lenticular antireflection display
US6811274B2 (en) 2002-12-04 2004-11-02 General Electric Company Polarization sensitive optical substrate
US7125131B2 (en) 2002-12-06 2006-10-24 General Electric Company Brightness enhancement film with improved view angle
EP1597907A2 (en) 2003-02-21 2005-11-23 Koninklijke Philips Electronics N.V. Autostereoscopic display
JP4143444B2 (ja) 2003-03-07 2008-09-03 キヤノン株式会社 照明光学系
JP3961973B2 (ja) 2003-03-14 2007-08-22 富士通株式会社 Otdrによる測定方法及び端局装置
EP1614299A1 (en) 2003-04-16 2006-01-11 Upstream Engineering Oy 2d/3d data projector
JP2004319364A (ja) 2003-04-18 2004-11-11 Alps Electric Co Ltd 照明装置および液晶表示装置
US7245430B2 (en) 2003-04-21 2007-07-17 Ricoh Company, Ltd. Method and apparatus for displaying three-dimensional stereo image using light deflector
IL155525A0 (en) * 2003-04-21 2009-02-11 Yaron Mayer System and method for 3d photography and/or analysis of 3d images and/or display of 3d images
US7976169B2 (en) 2003-05-14 2011-07-12 Sun Innovations, Inc. Waveguide display
GB0313044D0 (en) 2003-06-06 2003-07-09 Cambridge Flat Projection Flat panel scanning illuminator
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
GB2403814A (en) 2003-07-10 2005-01-12 Ocuity Ltd Directional display apparatus with birefringent lens structure
GB2403815A (en) 2003-07-10 2005-01-12 Ocuity Ltd Birefringent lens array structure
JP4060332B2 (ja) 2003-07-23 2008-03-12 シャープ株式会社 液晶表示装置
JP4727629B2 (ja) 2003-07-23 2011-07-20 シャープ株式会社 液晶表示装置
GB2405542A (en) 2003-08-30 2005-03-02 Sharp Kk Multiple view directional display having display layer and parallax optic sandwiched between substrates.
KR20060065731A (ko) 2003-09-22 2006-06-14 진 돌고프 전방향 렌티큘라와 배리어-그리드 영상 디스플레이 및 그제조방법
GB2406730A (en) 2003-09-30 2005-04-06 Ocuity Ltd Directional display.
JP4411923B2 (ja) 2003-10-06 2010-02-10 セイコーエプソン株式会社 照明装置、表示装置及びプロジェクタ
JP2005135844A (ja) 2003-10-31 2005-05-26 Sony Corp 光学素子及びバックライト装置
IL165376A0 (en) 2003-12-02 2006-01-15 Electro Optics Ind Ltd Vehicle display system
JP2005183030A (ja) 2003-12-16 2005-07-07 Seiko Epson Corp 導光板及び照明装置
US7052168B2 (en) 2003-12-17 2006-05-30 3M Innovative Properties Company Illumination device
DE10359403B4 (de) 2003-12-18 2005-12-15 Seereal Technologies Gmbh Autostereoskopisches Multi-User-Display
JP4408368B2 (ja) 2003-12-24 2010-02-03 株式会社 日立ディスプレイズ 表示装置および表示方法およびこれらを用いる機器
CN1910399B (zh) 2004-01-15 2013-05-15 日立化成株式会社 反射器以及背光装置
GB2410116A (en) 2004-01-17 2005-07-20 Sharp Kk Illumination system and display device
JP4845893B2 (ja) 2004-01-20 2011-12-28 シャープ株式会社 方向性バックライトおよびマルチビューディスプレイデバイス
US20070019882A1 (en) 2004-01-30 2007-01-25 Shoji Tanaka Makeup simulation program, makeup simulation device, and makeup simulation method
US7300177B2 (en) 2004-02-11 2007-11-27 3M Innovative Properties Illumination system having a plurality of light source modules disposed in an array with a non-radially symmetrical aperture
KR100822520B1 (ko) 2004-02-13 2008-04-16 미쓰비시덴키 가부시키가이샤 액정 표시 장치 및 정보 기기
US7826668B1 (en) 2004-02-17 2010-11-02 Corel Corporation Adaptive region editing tool
US8094927B2 (en) 2004-02-27 2012-01-10 Eastman Kodak Company Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer
US6962415B2 (en) 2004-02-27 2005-11-08 Honeywell International Inc. Electro-optical dimming system
JP4394977B2 (ja) 2004-03-09 2010-01-06 五洋紙工株式会社 面光源装置
US7375886B2 (en) 2004-04-19 2008-05-20 Stereographics Corporation Method and apparatus for optimizing the viewing distance of a lenticular stereogram
JP4616577B2 (ja) 2004-04-22 2011-01-19 株式会社日立製作所 映像表示装置
JP2005321693A (ja) 2004-05-11 2005-11-17 Hitachi Displays Ltd 液晶表示装置
GB2414127A (en) 2004-05-12 2005-11-16 Sharp Kk Time sequential colour projection
US7463775B1 (en) 2004-05-18 2008-12-09 Adobe Systems Incorporated Estimating compressed storage size of digital data
TWI254166B (en) 2004-05-25 2006-05-01 Au Optronics Corp 3D display system and method
US7064353B2 (en) 2004-05-26 2006-06-20 Philips Lumileds Lighting Company, Llc LED chip with integrated fast switching diode for ESD protection
JP4367258B2 (ja) 2004-06-18 2009-11-18 日本電気株式会社 入出力装置及び端末装置
AU2005278003B8 (en) 2004-06-21 2011-06-23 Google Llc Single image based multi-biometric system and method
JP2006004877A (ja) 2004-06-21 2006-01-05 Nippon Leiz Co Ltd 導光板および平面照明装置
JP3908241B2 (ja) 2004-06-24 2007-04-25 オリンパス株式会社 映像表示装置
US7204631B2 (en) 2004-06-30 2007-04-17 3M Innovative Properties Company Phosphor based illumination system having a plurality of light guides and an interference reflector
JP2006031941A (ja) 2004-07-12 2006-02-02 Sharp Corp 面状光源ユニット
US7088488B2 (en) 2004-07-13 2006-08-08 Imation Corp. Spatial light modulator device with diffusive element
US7215391B2 (en) 2004-07-16 2007-05-08 United Microelectronics Corp. Liquid crystal on silicon display with micro color filters positioned on the top surface of the transparent substrate
WO2006031545A1 (en) 2004-09-09 2006-03-23 Fusion Optix, Inc. Enhanced lcd backlight
US20080128728A1 (en) 2004-09-10 2008-06-05 Luminus Devices, Inc. Polarized light-emitting devices and methods
US7227567B1 (en) 2004-09-14 2007-06-05 Avaya Technology Corp. Customizable background for video communications
US8031273B2 (en) 2004-09-17 2011-10-04 Sharp Kabushiki Kaisha Display device, viewing angle control device, and electronic device
GB2418315A (en) 2004-09-21 2006-03-22 Sharp Kk Multiple view display
JP4186918B2 (ja) 2004-12-01 2008-11-26 セイコーエプソン株式会社 画像表示装置
DE102004059729B3 (de) 2004-12-11 2006-04-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung
DE102004063838A1 (de) 2004-12-23 2006-07-06 Seereal Technologies Gmbh Verfahren und Einrichtung zum Berechnen computer generierter Videohologramme
US20060139447A1 (en) 2004-12-23 2006-06-29 Unkrich Mark A Eye detection system and method for control of a three-dimensional display
GB0502453D0 (en) 2005-02-05 2005-03-16 Cambridge Flat Projection Flat panel lens
US7355800B2 (en) 2005-02-07 2008-04-08 Coherent, Inc. Apparatus for projecting a line of light from a diode-laser array
WO2006097897A1 (en) 2005-03-17 2006-09-21 Koninklijke Philips Electronics N.V. Autostereoscopic display apparatus and colour filter therefor
JP4600317B2 (ja) 2005-03-31 2010-12-15 カシオ計算機株式会社 指向性を持った少なくとも2つの照明光を出射する照明装置及びそれを用いた表示装置
US20070115551A1 (en) 2005-04-01 2007-05-24 Alexis Spilman Space-variant waveplate for polarization conversion, methods and applications
JP5090337B2 (ja) 2005-04-08 2012-12-05 リアルディー インコーポレイテッド 平面パススルーを有する自動立体ディスプレイ
US7430358B2 (en) 2005-04-20 2008-09-30 Wavefront Technology, Inc. Elliptical diffusers used in displays
US8675125B2 (en) 2005-04-27 2014-03-18 Parellel Consulting Limited Liability Company Minimized-thickness angular scanner of electromagnetic radiation
US7188953B2 (en) 2005-05-03 2007-03-13 Eastman Kodak Company Display apparatus using LCD panel
US7535607B2 (en) 2005-05-06 2009-05-19 Seereal Technologies S.A. Device for holographic reconstruction of three-dimensional scenes
GB2426351A (en) 2005-05-19 2006-11-22 Sharp Kk A dual view display
KR100650191B1 (ko) 2005-05-31 2006-11-27 삼성전기주식회사 정전기 방전 충격에 대한 보호 기능이 내장된 고휘도 발광다이오드
TW200641416A (en) 2005-05-31 2006-12-01 Bright View Electronics Co Ltd A lighting device providing longitudinal illumination
US7404645B2 (en) 2005-06-20 2008-07-29 Digital Display Innovations, Llc Image and light source modulation for a digital display system
JP4741887B2 (ja) 2005-06-24 2011-08-10 Nec液晶テクノロジー株式会社 光源装置、表示装置及び端末装置
KR100813977B1 (ko) 2005-07-08 2008-03-14 삼성전자주식회사 2차원/3차원 영상 호환용 고해상도 입체 영상 디스플레이장치
GB2428345A (en) 2005-07-13 2007-01-24 Sharp Kk A display having multiple view and single view modes
CN100376970C (zh) 2005-07-20 2008-03-26 清华大学 导光板与背光模组
WO2007014371A2 (en) 2005-07-28 2007-02-01 Light Prescriptions Innovators, Llc Etendue-conserving illumination-optics for backlights and frontlights
KR101128519B1 (ko) 2005-08-04 2012-03-27 삼성전자주식회사 고해상도 오토스테레오스코픽 디스플레이
CN1908753A (zh) 2005-08-05 2007-02-07 鸿富锦精密工业(深圳)有限公司 偏振光转换器、其制造方法及背光模组
JP3872810B1 (ja) 2005-08-12 2007-01-24 シャープ株式会社 光源制御装置、照明装置及び液晶表示装置
WO2007027759A2 (en) 2005-09-02 2007-03-08 Colorlink, Inc. Polarization beam splitter and combiner
US7429035B2 (en) 2005-09-29 2008-09-30 Wprwmdm, L.L.C. Equipment handling apparatus
JP4626467B2 (ja) 2005-09-29 2011-02-09 カシオ計算機株式会社 液晶表示装置
US7663712B2 (en) 2005-10-10 2010-02-16 Skc Haas Display Films Co., Ltd. Backlight unit with linearly reduced divergence having the width of an output aperture vary over the length of a light divergence reduction structure
US7378686B2 (en) 2005-10-18 2008-05-27 Goldeneye, Inc. Light emitting diode and side emitting lens
JP2009521137A (ja) 2005-11-14 2009-05-28 リアルデー 一体的交互嵌合を有するモニタ
WO2007072263A2 (en) 2005-12-21 2007-06-28 Koninklijke Philips Electronics N.V. Backlight arrangement
KR20070071293A (ko) 2005-12-29 2007-07-04 엘지.필립스 엘시디 주식회사 액정표시소자 및 그 제조방법
JP4215058B2 (ja) 2006-01-19 2009-01-28 エプソンイメージングデバイス株式会社 画像表示装置及び電子機器
US7528906B2 (en) 2006-01-23 2009-05-05 Real D Achromatic polarization switches
KR20080090961A (ko) 2006-01-27 2008-10-09 가부시키가이샤 엔프라스 면광원 장치 및 표시 장치
KR20070080985A (ko) 2006-02-09 2007-08-14 삼성전자주식회사 레이저 디스플레이 장치
US7593615B2 (en) 2006-02-10 2009-09-22 Rpc Photonics, Inc. Optical devices for guiding illumination
KR100813975B1 (ko) 2006-02-27 2008-03-14 삼성전자주식회사 2차원/3차원 영상 호환용 고해상도 입체 영상 표시 장치
CN2872404Y (zh) 2006-03-06 2007-02-21 胡国辉 高亮度导光板
US20070223252A1 (en) 2006-03-24 2007-09-27 Junwon Lee Illumination apparatus and film
KR100765075B1 (ko) 2006-03-26 2007-10-09 엘지이노텍 주식회사 질화물 반도체 발광 소자 및 그 제조방법
JP4385031B2 (ja) 2006-03-31 2009-12-16 日本ライツ株式会社 導光板および平面照明装置
JP2007279474A (ja) 2006-04-10 2007-10-25 Hitachi Displays Ltd 液晶表示装置
US7751960B2 (en) 2006-04-13 2010-07-06 Gm Global Technology Operations, Inc. Driver workload-based vehicle stability enhancement control
US7524053B2 (en) 2006-05-12 2009-04-28 Real D 3-D eyewear
US7876489B2 (en) 2006-06-05 2011-01-25 Pixtronix, Inc. Display apparatus with optical cavities
US7646453B2 (en) 2006-06-05 2010-01-12 Skc Haas Display Films Co., Ltd. Reflective polarizer with polarization splitting microstructure
WO2008010593A1 (fr) 2006-07-21 2008-01-24 Fujifilm Corporation Plaque de guidage de lumière unitaire, unité de plaque de guidage de lumière, dispositif d'éclairage plan et dispositif d'affichage à cristaux liquides
KR100823274B1 (ko) 2006-07-26 2008-04-17 삼성전자주식회사 조명장치 및 이를 채용한 디스플레이 장치
US7529416B2 (en) 2006-08-18 2009-05-05 Terayon Communication Systems, Inc. Method and apparatus for transferring digital data between circuits
CN101506573B (zh) 2006-09-26 2011-01-12 松下电器产业株式会社 面状照明装置及使用该面状照明装置的液晶显示装置
GB0619366D0 (en) 2006-10-02 2006-11-08 Cambridge Flat Projection Distortionless wedge projection
JP4197716B2 (ja) 2006-10-03 2008-12-17 株式会社東芝 立体映像表示装置
JP5243439B2 (ja) 2006-10-06 2013-07-24 スリーエム イノベイティブ プロパティズ カンパニー 自動立体3dディスプレイ装置用のバックライトモジュール及びlcdデバイス用の走査式バックライト
GB0620014D0 (en) 2006-10-10 2006-11-22 Cambridge Flat Projection Prismatic film backlight
JP5292812B2 (ja) 2006-10-27 2013-09-18 東レ株式会社 光反射板用白色ポリエステルフィルム
CN200983052Y (zh) 2006-11-27 2007-11-28 比亚迪股份有限公司 一种用于立体液晶显示器的背光模组
EP2104873B1 (en) 2006-12-29 2020-03-11 Modilis Holdings LLC Incoupling structure for lighting applications
US8199152B2 (en) * 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
WO2008090643A1 (ja) 2007-01-22 2008-07-31 Sharp Kabushiki Kaisha 光源モジュール及びバックライト光源
JP4974703B2 (ja) 2007-02-21 2012-07-11 富士フイルム株式会社 面状照明装置
GB0704803D0 (en) 2007-03-13 2007-04-18 Cambridge Flat Projection Structured colour illumination of lcd's
JP4967731B2 (ja) 2007-03-15 2012-07-04 セイコーエプソン株式会社 画像表示装置及びそのための光学部材
US7798698B2 (en) 2007-03-23 2010-09-21 Victor Company Of Japan, Limited Lighting device and display device
US7806579B2 (en) 2007-03-30 2010-10-05 Honeywell International Inc. Luminaire having a two-way waveguide
RU2377623C2 (ru) 2007-04-20 2009-12-27 Василий Александрович ЕЖОВ Способ наблюдения стереоизображений с полным разрешением для каждого ракурса и устройство для его реализации
DE102008021721A1 (de) 2007-05-08 2008-11-27 Citizen Electronics Co., Ltd., Fujiyoshida-shi Optisches Bauteil, Hintergrundbeleuchtungseinheit und Anzeigevorrichtung
US7528893B2 (en) 2007-05-18 2009-05-05 3M Innovative Properties Company Backlight for liquid crystal display
US8482685B2 (en) 2007-06-05 2013-07-09 Samsung Display Co., Ltd. Liquid crystal display panel
JP4902431B2 (ja) 2007-06-07 2012-03-21 富士フイルム株式会社 面状照明装置
US20080316303A1 (en) 2007-06-08 2008-12-25 Joseph Chiu Display Device
US7618178B2 (en) 2007-06-11 2009-11-17 SKC Haas Display Films Co., Lt.d Backlight containing formed birefringence reflective polarizer
KR20090009436A (ko) 2007-07-20 2009-01-23 엘지이노텍 주식회사 엘이디 백라이트
US8331615B2 (en) * 2007-08-01 2012-12-11 The Board Of Trustees Of The University Of Illinois Match, expand, and filter technique for multi-view stereopsis
KR100897804B1 (ko) 2007-08-07 2009-05-15 (주)비젼텍 패턴이 형성된 백라이트 유닛용 도광판
JP5248062B2 (ja) 2007-08-24 2013-07-31 株式会社東芝 指向性バックライト、表示装置及び立体画像表示装置
US8087793B2 (en) 2007-10-30 2012-01-03 Edward Pakhchyan Back-light assembly
KR100932304B1 (ko) 2007-10-30 2009-12-16 제일모직주식회사 배면에 비대칭 프리즘을 구비하는 백라이트 유닛용 도광판및 이를 이용한 액정표시장치
US7791683B2 (en) 2007-11-19 2010-09-07 Honeywell International Inc. Backlight systems for liquid crystal displays
US8144153B1 (en) * 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
JP4996433B2 (ja) 2007-11-27 2012-08-08 ミネベア株式会社 面状照明装置
US8842064B2 (en) 2007-12-20 2014-09-23 Reald Inc. Intra-pixel illumination system
US20090168459A1 (en) 2007-12-27 2009-07-02 Qualcomm Incorporated Light guide including conjugate film
KR101421626B1 (ko) 2008-01-09 2014-07-22 삼성디스플레이 주식회사 광원 유닛, 이를 구비하는 백라이트 유닛 및 액정 표시장치
EP2233823B1 (en) 2008-01-23 2018-11-21 Panasonic Intellectual Property Management Co., Ltd. Wavelength separator, planar illumination device and liquid crystal display device using the wavelength separator
JP4902566B2 (ja) 2008-02-15 2012-03-21 シャープ株式会社 面状照明装置および表示装置
US20090231356A1 (en) 2008-03-17 2009-09-17 Photometria, Inc. Graphical user interface for selection of options from option groups and methods relating to same
US7750982B2 (en) 2008-03-19 2010-07-06 3M Innovative Properties Company Autostereoscopic display with fresnel lens element and double sided prism film adjacent a backlight having a light transmission surface with left and right eye light sources at opposing ends modulated at a rate of at least 90 hz
US8106910B2 (en) 2008-03-28 2012-01-31 Vldimir Pugach Method for correct reproduction of moving spatial images on a flat screen
KR20110009093A (ko) 2008-04-03 2011-01-27 스미또모 가가꾸 가부시키가이샤 액정 표시 장치
US8239893B2 (en) 2008-05-12 2012-08-07 Microsoft Corporation Custom channels
WO2009147877A1 (ja) 2008-06-04 2009-12-10 シャープ株式会社 導光体、照明装置、および液晶表示装置
US8068187B2 (en) 2008-06-18 2011-11-29 3M Innovative Properties Company Stereoscopic 3D liquid crystal display apparatus having a double sided prism film comprising cylindrical lenses and non-contiguous prisms
US9253416B2 (en) 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
JP4525808B2 (ja) 2008-07-28 2010-08-18 ソニー株式会社 立体画像表示装置およびその製造方法
US8625881B2 (en) 2008-08-15 2014-01-07 Reald Inc. Enhanced ghost compensation for stereoscopic imagery
KR101287636B1 (ko) 2008-08-25 2013-07-24 엘지디스플레이 주식회사 백라이트 유닛 및 이를 구비한 액정표시장치
US8223296B2 (en) 2008-08-25 2012-07-17 Lg Display Co. Ltd. Backlight unit and liquid crystal display device having the same
KR101450146B1 (ko) 2008-09-02 2014-10-14 삼성디스플레이 주식회사 백라이트 어셈블리 및 이를 포함하는 표시 장치
US7660047B1 (en) 2008-09-03 2010-02-09 Microsoft Corporation Flat panel lens
WO2010040146A1 (en) 2008-10-03 2010-04-08 Real D Optimal depth mapping
JP5567021B2 (ja) 2008-10-07 2014-08-06 ユークリッド・ディスカバリーズ・エルエルシー 特徴を基礎とするビデオ圧縮
EP2351377A1 (en) 2008-10-21 2011-08-03 Koninklijke Philips Electronics N.V. Method and system for processing an input three dimensional video signal
US8482654B2 (en) 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
KR101314836B1 (ko) 2008-10-27 2013-10-04 니폰덴신뎅와 가부시키가이샤 화소 예측치 생성 순서 자동 생성 방법, 화상 부호화 방법, 화상 복호 방법, 그 장치, 그 프로그램 및 그 프로그램을 기록한 기록 매체
US7798699B2 (en) 2008-11-10 2010-09-21 Nokia Corporation Layered light guide with diffractive structures
TWI396873B (zh) 2008-12-31 2013-05-21 Nat Univ Tsing Hua 一種微結構偏極化之導光裝置
US20110043501A1 (en) 2009-01-15 2011-02-24 Tyler Jon Daniel Material Simulation Device
US8152349B2 (en) 2009-01-15 2012-04-10 Microsoft Corporation End reflector for a flat panel lens
JP2010164914A (ja) 2009-01-19 2010-07-29 Hitachi Displays Ltd 液晶表示装置
US8026997B2 (en) 2009-01-28 2011-09-27 Sharp Laboratories Of America, Inc. Area active backlight with steerable light source
KR20100092152A (ko) 2009-02-12 2010-08-20 엘지이노텍 주식회사 백라이트 유닛
KR101333439B1 (ko) 2009-02-17 2013-12-02 샤프 가부시키가이샤 도광체, 면 광원 장치 및 액정 표시 장치
DE102009010538B4 (de) 2009-02-25 2022-02-03 tooz technologies GmbH Multifunktionsglas mit einer optisch wirksamen Fläche, die zumindest teilweise eine Fresnel-Struktur mit mehreren Fresnel-Segmenten aufweist, sowie Verfahren zur Herstellung eines solchen optischen Multifunktionsglases
US20100214135A1 (en) 2009-02-26 2010-08-26 Microsoft Corporation Dynamic rear-projected user interface
JP5143770B2 (ja) 2009-03-02 2013-02-13 株式会社ジャパンディスプレイイースト 液晶表示装置
US20100231498A1 (en) 2009-03-13 2010-09-16 Microsoft Corporation Image display via multiple light guide sections
ES2880475T3 (es) 2009-04-01 2021-11-24 Tobii Ab Sistema de representación visual con iluminadores para el seguimiento de la mirada
WO2010118292A1 (en) 2009-04-09 2010-10-14 Dynavox Systems, Llc Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods
WO2010124028A2 (en) 2009-04-21 2010-10-28 Vasylyev Sergiy V Light collection and illumination systems employing planar waveguide
US8639072B2 (en) 2011-10-19 2014-01-28 Milan Momcilo Popovich Compact wearable display
WO2010127285A2 (en) 2009-04-30 2010-11-04 Tetracam, Inc. Method and apparatus for providing a 3d image via media device
US8783898B2 (en) 2009-05-01 2014-07-22 Abl Ip Holding Llc Light emitting devices and applications thereof
DE102009003069A1 (de) 2009-05-13 2010-11-25 Seereal Technologies S.A. 3D-Anzeigedisplay mit steuerbarer Vorrichtung zum Nachführen von Sichtbarkeitsbereichen
US8509309B2 (en) 2009-05-14 2013-08-13 Massachusetts Institute Of Technology Selecting transforms for compressing visual data
US8203595B2 (en) 2009-05-21 2012-06-19 Alcatel Lucent Method and apparatus for enabling improved eye contact in video teleconferencing applications
CN102450026B (zh) 2009-05-28 2015-01-14 皇家飞利浦电子股份有限公司 自动立体显示设备
US8216405B2 (en) 2009-05-28 2012-07-10 Microsoft Corporation Making an optic with a cladding
GB2470752B (en) 2009-06-03 2015-01-07 Au Optronics Corp Autostereoscopic Display Apparatus
JP5563250B2 (ja) 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
KR20110006773A (ko) 2009-07-15 2011-01-21 삼성전자주식회사 디스플레이장치 및 텔레비전
EP2282231A3 (en) 2009-08-07 2011-05-04 JDS Uniphase Corporation Multi-segment optical retarder for creating 3d images
JP5375424B2 (ja) 2009-08-10 2013-12-25 東芝ライテック株式会社 発光装置及びその製造方法、灯具、並びに灯具システム
FR2949264B1 (fr) 2009-08-18 2012-02-24 Screen Res Procede de fabrication d'un ecran de projection et ecran correspondant
US8354806B2 (en) 2009-08-21 2013-01-15 Microsoft Corporation Scanning collimation of light via flat panel lamp
US20110242298A1 (en) 2009-08-21 2011-10-06 Microsoft Corporation Private video presentation
US20110044582A1 (en) 2009-08-21 2011-02-24 Microsoft Corporation Efficient collimation of light with optical wedge
US20110044056A1 (en) 2009-08-21 2011-02-24 Microsoft Corporation Light collector for an illumination optic
JP5333050B2 (ja) 2009-08-25 2013-11-06 ソニー株式会社 立体映像表示装置および立体映像表示装置の製造方法
WO2011067921A1 (ja) 2009-12-01 2011-06-09 シャープ株式会社 折畳み式携帯端末
JP5325346B2 (ja) 2009-12-01 2013-10-23 ルミニット エルエルシー 反射スクリーン、映画スクリーンの2つの部位を組み立てる方法、および反射スクリーン用の継ぎ目
KR101676872B1 (ko) 2009-12-14 2016-11-16 엘지전자 주식회사 광학 어셈블리, 이를 구비한 백라이트 유닛 및 디스플레이 장치
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
KR101684478B1 (ko) 2010-01-20 2016-12-09 삼성디스플레이 주식회사 복수의 도광판을 갖는 백라이트 어셈블리
US20110188120A1 (en) 2010-01-29 2011-08-04 Beam Engineering For Advanced Measurement Co. Broadband optics for manipulating light beams and images
KR101680771B1 (ko) 2010-02-04 2016-11-30 삼성전자주식회사 입체 영상 디스플레이 장치 및 방법
JP2013080562A (ja) 2010-02-10 2013-05-02 Sharp Corp バックライト装置および液晶表示装置並びにテレビジョン受像機
US8384774B2 (en) * 2010-02-15 2013-02-26 Eastman Kodak Company Glasses for viewing stereo images
KR20110097690A (ko) * 2010-02-23 2011-08-31 삼성전자주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
US20110216266A1 (en) 2010-03-02 2011-09-08 Microsoft Corporation Wedge backlight with diffraction grating
US8922480B1 (en) 2010-03-05 2014-12-30 Amazon Technologies, Inc. Viewer-based device control
JP5055398B2 (ja) 2010-03-12 2012-10-24 株式会社ジャパンディスプレイイースト 照明装置および液晶表示装置
JP5462672B2 (ja) 2010-03-16 2014-04-02 株式会社ジャパンディスプレイ 表示装置及び電子機器
US9628722B2 (en) 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
KR20110109565A (ko) 2010-03-31 2011-10-06 삼성전자주식회사 백라이트 유닛, 이를 구비한 3d 디스플레이 및 3d 영상 형성 방법
JP5528885B2 (ja) 2010-03-31 2014-06-25 嶋田プレシジョン株式会社 回折格子を利用した導光板及び液晶テレビ用直下型バックライト装置
BR112012026325A2 (pt) 2010-04-16 2019-09-24 Flex Lighting Ii Llc dispositivo de iluminação compreendendo um guia de luz baseado em película
US8564740B2 (en) 2010-05-24 2013-10-22 3M Innovative Properties Company Directional backlight with reduced crosstalk
US8477261B2 (en) 2010-05-26 2013-07-02 Microsoft Corporation Shadow elimination in the backlight for a 3-D display
EP2577963A1 (en) 2010-05-26 2013-04-10 Ramot at Tel Aviv University, Ltd. Method and system for correcting gaze offset
US8311337B2 (en) 2010-06-15 2012-11-13 Cyberlink Corp. Systems and methods for organizing and accessing feature vectors in digital images
US10089937B2 (en) 2010-06-21 2018-10-02 Microsoft Technology Licensing, Llc Spatial and temporal multiplexing display
KR101680770B1 (ko) 2010-07-09 2016-11-29 삼성전자주식회사 백라이트 유닛 및 이를 구비하는 디스플레이장치
WO2012008152A1 (ja) 2010-07-14 2012-01-19 パナソニック株式会社 表示装置
WO2012008972A1 (en) 2010-07-16 2012-01-19 Hewlett-Packard Development Company, L.P. Methods and systems for establishing eye contact and accurate gaze in remote collaboration
KR101729556B1 (ko) 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
WO2012021967A1 (en) 2010-08-16 2012-02-23 Tandemlaunch Technologies Inc. System and method for analyzing three-dimensional (3d) media content
US9024997B2 (en) 2010-09-03 2015-05-05 At&T Intellectual Property L.L.P. Virtual presence via mobile
JP5364666B2 (ja) 2010-09-13 2013-12-11 株式会社東芝 立体画像表示装置、方法およびプログラム
US8534901B2 (en) 2010-09-13 2013-09-17 Teledyne Reynolds, Inc. Collimating waveguide apparatus and method
EP2431786A1 (de) 2010-09-17 2012-03-21 Bayer MaterialScience AG Autostereoskopisches 3D-Display
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US8651725B2 (en) 2010-09-30 2014-02-18 Global Lighting Technology Inc. Backlight module
US8848040B2 (en) 2010-10-08 2014-09-30 3Dv Co., Ltd. 3D display system with active shutter plate
US9294717B2 (en) 2010-10-13 2016-03-22 At&T Intellectual Property I, L.P. System and method to enable layered video messaging
CA2815418A1 (en) 2010-10-22 2012-04-26 S. C. Johnson & Son, Inc. Compressible pouch with multiple collapsible channels across bottom
KR20120045098A (ko) 2010-10-29 2012-05-09 삼성전자주식회사 백라이트 어셈블리 및 이를 갖는 액정 표시 장치
KR101670927B1 (ko) 2010-11-05 2016-11-01 삼성전자주식회사 디스플레이 장치 및 방법
US8494237B2 (en) 2010-11-08 2013-07-23 Cranial Technologies, Inc Method and apparatus for processing digital image representations of a head shape
US8651726B2 (en) 2010-11-19 2014-02-18 Reald Inc. Efficient polarized directional backlight
US20140041205A1 (en) 2010-11-19 2014-02-13 Reald Inc. Method of manufacturing directional backlight apparatus and directional structured optical film
US9250448B2 (en) 2010-11-19 2016-02-02 Reald Inc. Segmented directional backlight and related methods of backlight illumination
KR101775068B1 (ko) 2010-11-19 2017-09-06 리얼디 스파크, 엘엘씨 방향성 평판 조명기
US20130328866A1 (en) 2010-11-19 2013-12-12 Reald Inc. Spatially multiplexed imaging directional backlight displays
CN102012742A (zh) * 2010-11-24 2011-04-13 广东威创视讯科技股份有限公司 一种眼睛鼠标的校正方法及其装置
US8988336B2 (en) 2010-12-16 2015-03-24 3M Innovative Properties Company Dual-orientation autostereoscopic backlight and display
KR20120074825A (ko) 2010-12-28 2012-07-06 엘지전자 주식회사 디스플레이 장치
US8823769B2 (en) 2011-01-05 2014-09-02 Ricoh Company, Ltd. Three-dimensional video conferencing system with eye contact
US8836777B2 (en) * 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
JP2012181688A (ja) 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US10499059B2 (en) 2011-03-08 2019-12-03 Velos Media, Llc Coding of transform coefficients for video coding
US20120236133A1 (en) * 2011-03-18 2012-09-20 Andrew Charles Gallagher Producing enhanced images from anaglyph images
JP2012204370A (ja) 2011-03-23 2012-10-22 Sony Corp 光源回路ユニットおよび照明装置、並びに表示装置
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
KR101788723B1 (ko) 2011-04-28 2017-10-20 엘지이노텍 주식회사 발광 소자 패키지
JP5751922B2 (ja) 2011-05-09 2015-07-22 キヤノン株式会社 発光装置および表示装置
US8676937B2 (en) 2011-05-12 2014-03-18 Jeffrey Alan Rapaport Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging
WO2012158574A1 (en) 2011-05-13 2012-11-22 Reald Inc. Efficient polarized directional backlight
JP2012244396A (ja) * 2011-05-19 2012-12-10 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US8184069B1 (en) 2011-06-20 2012-05-22 Google Inc. Systems and methods for adaptive transmission of data
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
KR101912408B1 (ko) 2011-06-29 2018-10-26 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5649526B2 (ja) 2011-07-01 2015-01-07 株式会社ジャパンディスプレイ 表示装置
US8760762B1 (en) 2011-08-12 2014-06-24 Google Inc. Image waveguide utilizing two mirrored or polarized surfaces
KR101884628B1 (ko) 2011-08-24 2018-08-02 엘지이노텍 주식회사 발광 모듈 및 백라이트 유닛
JP6242569B2 (ja) 2011-08-25 2017-12-06 東芝メディカルシステムズ株式会社 医用画像表示装置及びx線診断装置
US9538133B2 (en) 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US9097826B2 (en) 2011-10-08 2015-08-04 Svv Technology Innovations, Inc. Collimating illumination systems employing a waveguide
US20130107340A1 (en) 2011-10-31 2013-05-02 Yoon Kean Wong Autostereoscopic Steering Light-Guide Three-Dimensional Displays
US20130127861A1 (en) 2011-11-18 2013-05-23 Jacques Gollier Display apparatuses and methods for simulating an autostereoscopic display device
US20130135588A1 (en) 2011-11-29 2013-05-30 Milan Momcilo Popovich 3D display apparatus
WO2013079607A1 (en) * 2011-11-30 2013-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking
US8942434B1 (en) * 2011-12-20 2015-01-27 Amazon Technologies, Inc. Conflict resolution for pupil detection
US8593452B2 (en) 2011-12-20 2013-11-26 Apple Inc. Face feature vector construction
US8824779B1 (en) 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
WO2013116460A1 (en) 2012-01-31 2013-08-08 Alphamicron Incorporated Electronically dimmable optical device
CN202486493U (zh) 2012-02-07 2012-10-10 天津三多水科技有限公司 一种投影幕布
US9684953B2 (en) 2012-02-27 2017-06-20 Eth Zurich Method and system for image processing in video conferencing
KR101977638B1 (ko) 2012-02-29 2019-05-14 삼성전자주식회사 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
US8950883B2 (en) 2012-03-09 2015-02-10 Corning Incorporated Bezel-free display device using directional backlighting
US9378574B2 (en) 2012-04-26 2016-06-28 Electronics And Telecommunications Research Institute Apparatus and method for producing makeup avatar
US9350980B2 (en) 2012-05-18 2016-05-24 Reald Inc. Crosstalk suppression in a directional backlight
US9678267B2 (en) 2012-05-18 2017-06-13 Reald Spark, Llc Wide angle imaging directional backlights
JP6308630B2 (ja) 2012-05-18 2018-04-11 リアルディー スパーク エルエルシー 指向性照明導波路配置
CN104321686B (zh) 2012-05-18 2017-04-12 瑞尔D斯帕克有限责任公司 控制定向背光源的光源
CN104487877A (zh) 2012-05-18 2015-04-01 瑞尔D股份有限公司 定向显示设备
US9188731B2 (en) 2012-05-18 2015-11-17 Reald Inc. Directional backlight
JP2015525432A (ja) 2012-05-18 2015-09-03 リアルディー インコーポレイテッド 結像指向性バックライトのための光源調整
US9104908B1 (en) 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
US8957943B2 (en) 2012-07-02 2015-02-17 Bby Solutions, Inc. Gaze direction adjustment for video calls and meetings
US9224248B2 (en) 2012-07-12 2015-12-29 Ulsee Inc. Method of virtual makeup achieved by facial tracking
KR101979669B1 (ko) 2012-07-13 2019-05-17 삼성전자주식회사 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
US9285532B2 (en) 2012-07-13 2016-03-15 Blackberry Limited Backlight module having a prisim reflector
WO2014018269A1 (en) 2012-07-23 2014-01-30 Reald Inc. Observer tracking autostereoscopic display
US9081195B2 (en) 2012-08-13 2015-07-14 Innolux Corporation Three-dimensional image display apparatus and three-dimensional image processing method
CN103807664A (zh) 2012-11-07 2014-05-21 纬创资通股份有限公司 光源模块和制作光源模块的方法
JP6147275B2 (ja) 2012-11-29 2017-06-14 シャープ株式会社 立体画像処理装置、立体画像処理方法、及びプログラム
US20140153832A1 (en) 2012-12-04 2014-06-05 Vivek Kwatra Facial expression editing in images based on collections of images
US9552668B2 (en) 2012-12-12 2017-01-24 Microsoft Technology Licensing, Llc Generation of a three-dimensional representation of a user
JP6132232B2 (ja) 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法
CN105210110A (zh) 2013-02-01 2015-12-30 松下知识产权经营株式会社 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序
TWI622811B (zh) 2013-02-22 2018-05-01 瑞爾D斯帕克有限責任公司 具方向的背光源
US9262648B2 (en) 2013-02-22 2016-02-16 Fujitsu Limited Display device with automatic viewing angle control
KR101538935B1 (ko) 2013-05-28 2015-07-24 주식회사 포디컬쳐 깊이 차이를 이용한 얼굴 구성요소의 자동 분류 방법
EP3011734A4 (en) * 2013-06-17 2017-02-22 RealD Inc. Controlling light sources of a directional backlight
JP6099232B2 (ja) 2013-08-22 2017-03-22 ビスポーク, インコーポレイテッド カスタム製品を創作するための方法及びシステム
KR101856568B1 (ko) * 2013-09-16 2018-06-19 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
US9224060B1 (en) * 2013-09-17 2015-12-29 Amazon Technologies, Inc. Object tracking using depth information
JP6364627B2 (ja) 2013-11-01 2018-08-01 パナソニックIpマネジメント株式会社 視線方向検出装置および視線方向検出方法
EP3069074A4 (en) 2013-11-15 2017-08-02 RealD Spark, LLC Directional backlights with light emitting element packages
US20150243035A1 (en) 2014-02-21 2015-08-27 Metaio Gmbh Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest
WO2015134996A1 (en) * 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
KR20230060544A (ko) 2014-03-21 2023-05-04 리얼디 스파크, 엘엘씨 지향성 백라이트
US9407896B2 (en) * 2014-03-24 2016-08-02 Hong Kong Applied Science and Technology Research Institute Company, Limited Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions
US9489739B2 (en) 2014-08-13 2016-11-08 Empire Technology Development Llc Scene analysis for improved eye tracking
US9325939B2 (en) 2014-08-14 2016-04-26 Verizon Patent And Licensing Inc. Method and system for providing gaze-directed correction during a video conferencing session
US9760762B2 (en) 2014-11-03 2017-09-12 Anastasia Soare Facial structural shaping
US9626564B2 (en) 2014-11-17 2017-04-18 Intel Corporation System for enabling eye contact in electronic images
US10496160B2 (en) 2014-12-16 2019-12-03 Koninklijke Philips N.V. Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing
US10356383B2 (en) 2014-12-24 2019-07-16 Reald Spark, Llc Adjustment of perceived roundness in stereoscopic image of a head
US9740282B1 (en) * 2015-01-05 2017-08-22 Amazon Technologies, Inc. Gaze direction tracking
US9704038B2 (en) 2015-01-07 2017-07-11 Microsoft Technology Licensing, Llc Eye tracking
KR102306538B1 (ko) 2015-01-20 2021-09-29 삼성전자주식회사 콘텐트 편집 장치 및 방법
CN104574321B (zh) 2015-01-29 2018-10-23 京东方科技集团股份有限公司 图像修正方法、图像修正装置和视频系统
US9300916B1 (en) 2015-02-10 2016-03-29 International Business Machines Corporation Natural gazes during online video conversations
GB2539845B (en) 2015-02-19 2017-07-12 Magic Pony Tech Ltd Offline training of hierarchical algorithms
US10368741B2 (en) 2015-02-27 2019-08-06 Valorisation-Recherche, Limited Partnership Method of and system for processing signals sensed from a user
GB201507210D0 (en) 2015-04-28 2015-06-10 Microsoft Technology Licensing Llc Eye gaze correction
KR102317021B1 (ko) 2015-06-26 2021-10-25 삼성전자주식회사 디스플레이 장치 및 이의 영상 보정 방법
CN104951808B (zh) 2015-07-10 2018-04-27 电子科技大学 一种用于机器人交互对象检测的3d视线方向估计方法
EP3335195A2 (en) 2015-08-14 2018-06-20 Metail Limited Methods of generating personalized 3d head models or 3d body models
KR102174258B1 (ko) * 2015-11-06 2020-11-04 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
US20170132528A1 (en) 2015-11-06 2017-05-11 Microsoft Technology Licensing, Llc Joint model training
US9538130B1 (en) 2015-12-10 2017-01-03 Dell Software, Inc. Dynamic gaze correction for video conferencing
ES2912310T3 (es) 2016-01-05 2022-05-25 Reald Spark Llc Corrección de la mirada en imágenes multivista
US10423830B2 (en) 2016-04-22 2019-09-24 Intel Corporation Eye contact correction in real time using neural network based machine learning
US10664949B2 (en) 2016-04-22 2020-05-26 Intel Corporation Eye contact correction in real time using machine learning
WO2017213218A1 (ja) 2016-06-10 2017-12-14 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
US10043088B2 (en) 2016-06-23 2018-08-07 Siemens Healthcare Gmbh Image quality score using a deep generative machine-learning model
US10062198B2 (en) 2016-06-23 2018-08-28 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
US20180158246A1 (en) 2016-12-07 2018-06-07 Intel IP Corporation Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays
US11026634B2 (en) 2017-04-05 2021-06-08 doc.ai incorporated Image-based system and method for predicting physiological parameters
US10777018B2 (en) 2017-05-17 2020-09-15 Bespoke, Inc. Systems and methods for determining the scale of human anatomy from images

Also Published As

Publication number Publication date
WO2017120247A1 (en) 2017-07-13
US10321123B2 (en) 2019-06-11
US11854243B2 (en) 2023-12-26
US11317081B2 (en) 2022-04-26
US20220400246A1 (en) 2022-12-15
CN108463787B (zh) 2021-11-30
CN114143495A (zh) 2022-03-04
US20170195662A1 (en) 2017-07-06
EP3400706A1 (en) 2018-11-14
EP3400706B1 (en) 2022-04-13
CN108463787A (zh) 2018-08-28
US20200021794A1 (en) 2020-01-16
EP3400706A4 (en) 2019-08-14
US20210044794A1 (en) 2021-02-11
US10750160B2 (en) 2020-08-18

Similar Documents

Publication Publication Date Title
ES2912310T3 (es) Corrección de la mirada en imágenes multivista
US10948726B2 (en) IPD correction and reprojection for accurate mixed reality object placement
CA3017827C (en) Efficient canvas view generation from intermediate views
KR102291461B1 (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US20190129174A1 (en) Multi-perspective eye-tracking for vr/ar systems
US20140009570A1 (en) Systems and methods for capture and display of flex-focus panoramas
US20180033157A1 (en) Image processing method and apparatus for determining depth within an image
US20230239457A1 (en) System and method for corrected video-see-through for head mounted displays
CN109255838A (zh) 避免增强现实显示设备观看重影的方法及设备
CN110581977B (zh) 一种视频画面的输出方法、装置及三目摄像机
US20220028109A1 (en) Image processing method and apparatus
TW202020622A (zh) 視線向量偵測方向與裝置
Lander et al. Eyemirror: Mobile calibration-free gaze approximation using corneal imaging
US20240054619A1 (en) Differently correcting images for different eyes
US20220165190A1 (en) System and method for augmenting lightfield images
KR20170008194A (ko) 전처리를 이용한 영상 디스플레이 방법 및 장치
US20230010947A1 (en) Electronic apparatus, and method for displaying image on display device
US20240046434A1 (en) Image processing method and image processing apparatus performing the same
KR101691806B1 (ko) 전처리를 이용한 영상 디스플레이 방법 및 장치
KR20220013834A (ko) 영상 처리 방법 및 장치
EP3229470A1 (en) Efficient canvas view generation from intermediate views
KR20170102450A (ko) 전처리를 이용한 영상 디스플레이 방법 및 장치