ES2912310T3 - Corrección de la mirada en imágenes multivista - Google Patents
Corrección de la mirada en imágenes multivista Download PDFInfo
- Publication number
- ES2912310T3 ES2912310T3 ES17736268T ES17736268T ES2912310T3 ES 2912310 T3 ES2912310 T3 ES 2912310T3 ES 17736268 T ES17736268 T ES 17736268T ES 17736268 T ES17736268 T ES 17736268T ES 2912310 T3 ES2912310 T3 ES 2912310T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- images
- displacement vector
- head
- view images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
Abstract
Procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento en cada imagen (31), identificar áreas de imagen (S2) que contienen los ojos izquierdo y derecho de la cabeza, respectivamente; con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de: obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y obtener (S4) un campo vectorial de desplazamiento que representa una transformación de un área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).
Description
DESCRIPCIÓN
Corrección de la mirada en imágenes multivista
SECTOR TÉCNICO
La presente solicitud se refiere al procesamiento de imagen de imágenes multivista de una cabeza, por ejemplo, un par estereoscópico de imágenes de una cabeza, en relación con la mirada percibida de los ojos de la cabeza.
ESTADO DE LA TÉCNICA ANTERIOR
En muchos sistemas, un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza se pueden capturar en un dispositivo y presentar en un dispositivo diferente para su visualización por un observador. Un ejemplo no limitativo es un sistema para realizar teleconferencia entre dos dispositivos de telecomunicaciones. En ese caso, cada dispositivo puede capturar un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de la cabeza del observador de ese dispositivo y transmitirlas al otro dispositivo sobre una red de telecomunicaciones para su presentación y visualización por el observador del otro dispositivo. Cuando un par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza se capturan y se presentan, la mirada de la cabeza en el par estereoscópico de imágenes, o, de forma más general, en las imágenes multivista presentadas, puede no estar dirigida al observador. Esto puede estar causado, por ejemplo, porque la mirada de la cabeza no se dirija al sistema de cámaras utilizado para capturar el par estereoscópico de imágenes, por ejemplo, debido a que el usuario cuya cabeza se representa está observando una pantalla en el mismo dispositivo que el sistema de cámaras y el sistema de cámaras está desplazado por encima (o por debajo) de esa pantalla. En ese caso, se percibirá que la mirada en las imágenes presentadas se dirige hacia abajo (o hacia arriba). El sistema visual humano ha desarrollado una alta sensibilidad a la mirada durante la interacción social, utilizando señales obtenidas de la posición relativa del iris y la esclerótica blanca de otros observadores. Por tanto, dichos errores en la mirada percibida son desconcertantes. Por ejemplo, en un sistema para realizar teleconferencia, los errores en la mirada percibida pueden crear interacciones no naturales entre los usuarios.
BREVE RESUMEN
La presente invención se refiere a una técnica de procesamiento de imagen para ajustar el par estereoscópico de imágenes, o, de forma más general, imágenes multivista, de una cabeza para corregir la mirada percibida.
Según un primer aspecto de la presente invención, se da a conocer un procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento: en cada imagen de las imágenes multivista, identificar áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza, respectivamente; con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de: obtener un vector de características a partir de varios descriptores de imagen locales del área de imagen en por lo menos una imagen de las imágenes multivista; y obtener un campo vectorial de desplazamiento que representa una transformación de un área de imagen, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características; y ajustar cada imagen de las imágenes multivista transformando las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza según el campo vectorial de desplazamiento obtenido.
En este procedimiento, se identifican y se transforman las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza. Para obtener un campo vectorial de desplazamiento que represente la transformación, se obtiene un vector de características a partir de varios descriptores de imagen locales del área de imagen en por lo menos una imagen de las imágenes multivista, y se utiliza para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. La forma del vector de características se puede obtener con antelación a partir de los datos de referencia utilizando aprendizaje automático. Este procedimiento permite corregir la mirada, reduciendo por tanto el efecto desconcertante de una mirada incorrecta cuando las imágenes multivista se presentan subsiguientemente.
Son posibles varios enfoques para obtener y utilizar campos vectoriales de desplazamiento, como sigue.
En un primer enfoque, los campos vectoriales de desplazamiento se pueden obtener con respecto a las áreas de imagen en cada imagen de las imágenes multivista de forma independiente. Esto permite corregir la mirada, pero existe el riesgo de que los campos vectoriales de desplazamiento con respecto a cada imagen puedan ser inconsistentes entre sí, con el resultado de que se lleven a cabo transformaciones en conflicto que pueden distorsionar el efecto estereoscópico y/o reducir la calidad de la imagen.
Sin embargo, los siguientes enfoques alternativos solucionan este problema.
Un segundo enfoque posible es como sigue. En el segundo enfoque, los varios descriptores de imagen locales utilizados en el procedimiento son varios descriptores de imagen locales en ambas imágenes de las imágenes multivista. En este caso, los datos de referencia comprenden campos vectoriales de desplazamiento de referencia para cada imagen de las imágenes multivista, campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características. Esto permite obtener un campo vectorial de desplazamiento a partir de los datos de referencia para cada imagen de las imágenes multivista. Por definición, los campos vectoriales de desplazamiento obtenidos para cada imagen de las imágenes multivista son inherentemente coherentes.
Una desventaja potencial de este segundo enfoque es que puede requerir que los datos de referencia se obtengan a partir de imágenes estereoscópicas, o, de forma más general, de imágenes multivista, cuya obtención puede no ser conveniente. Sin embargo, los siguientes enfoques permiten obtener los datos de referencia a partir de imágenes monoscópicas.
Un tercer enfoque posible es como sigue. En el tercer enfoque, los varios descriptores de imagen locales son varios descriptores de imagen locales en una imagen de las imágenes multivista, y los campos vectoriales de desplazamiento se obtienen como sigue. Se obtiene un campo vectorial de desplazamiento que representa una transformación del área de imagen en dicha una imagen de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. A continuación, se obtiene un campo vectorial de desplazamiento que representa una transformación del área de imagen en la otra o las otras imágenes multivista transformando el campo vectorial de desplazamiento obtenido que representa una transformación del área de imagen en dicha una imagen de las imágenes multivista, según una estimación del flujo óptico entre las áreas de imagen en la una imagen y en la otra o las otras imágenes multivista.
Por tanto, en el tercer enfoque, los campos vectoriales de desplazamiento obtenidos con respecto a cada imagen son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia, y el otro campo vectorial de desplazamiento se obtiene a partir del mismo utilizando una transformación según una estimación del flujo óptico entre las áreas de imagen en las imágenes de las imágenes multivista.
Un cuarto enfoque posible es como sigue. En el cuarto enfoque, los varios descriptores de imagen locales son varios descriptores de imagen locales en ambas imágenes de las imágenes multivista, y los campos vectoriales de desplazamiento se obtienen como sigue. Se obtiene un campo vectorial de desplazamiento inicial que representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. A continuación, se obtienen campos vectoriales de desplazamiento que representan una transformación de las áreas de imagen en cada imagen de las imágenes multivista transformando el campo vectorial de desplazamiento inicial según una estimación de los flujos ópticos entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes de las imágenes multivista.
Por tanto, en el cuarto enfoque, los campos vectoriales de desplazamiento obtenidos con respecto a cada imagen son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia, representando esto una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes de las imágenes multivista. Los campos vectoriales de desplazamiento respectivos utilizados para transformar las dos imágenes de las imágenes multivista se obtienen de las mismas utilizando una transformación según una estimación del flujo óptico entre las áreas de imagen nocionales en las imágenes nocionales y las imágenes de las imágenes multivista. Un quinto enfoque posible es como sigue. En el quinto enfoque, se obtienen campos vectoriales de desplazamiento con respecto a las áreas de imagen en cada imagen de las imágenes multivista, pero, a continuación, se obtiene a partir de los mismos un campo vectorial de desplazamiento combinado y se utiliza para transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza. En este caso, los campos vectoriales de desplazamiento para cada imagen son coherentes porque son iguales.
La combinación se puede llevar a cabo de alguna forma apropiada. Por ejemplo, la combinación puede ser un promedio sencillo o puede ser un promedio que se pondera mediante un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido. Dicho valor de confianza se puede obtener durante el aprendizaje automático.
Según un segundo aspecto de la presente invención, se da a conocer un aparato configurado para llevar a cabo un procedimiento similar al primer aspecto de la invención.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Se muestran realizaciones no limitativas por medio de ejemplos en las figuras adjuntas, en las que los números de referencia iguales indican partes similares, y en las que:
la FIGURA 1 es una vista esquemática, en perspectiva, de un dispositivo que captura un par estereoscópico de imágenes;
la FIGURA 2 es una vista esquemática, en perspectiva, de un dispositivo que presenta el par estereoscópico de imágenes;
la FIGURA 3 es un diagrama de flujo de un procedimiento de ajuste de un par estereoscópico de imágenes;
la FIGURA 4 es un diagrama que ilustra el procesamiento del par estereoscópico de imágenes en el procedimiento de la FIGURA 3;
la FIGURA 5 es un diagrama de flujo de una etapa de extracción de un área de imagen;
la FIGURA 6 y la FIGURA 7 son diagramas de flujo de etapas de obtención de campos vectoriales de desplazamiento según dos enfoques alternativos;
la FIGURA 8 y la FIGURA 9 son diagramas de flujo de dos alternativas para una etapa de ajuste de una imagen; la FIGURA 10 es un diagrama de flujo de una etapa de transformación dentro de la etapa de ajuste de una imagen en los procedimientos mostrados en la FIGURA 8 y en la FIGURA 9; y
la FIGURA 11 es un diagrama de un sistema de telecomunicaciones en el que se puede implementar el procedimiento.
DESCRIPCIÓN DETALLADA
La FIGURA 1 y la FIGURA 2 ilustran cómo se percibe una mirada incorrecta cuando un par estereoscópico de imágenes de una cabeza es capturado por el dispositivo 10 mostrado en la FIGURA 1, el cual se denominará dispositivo de origen 10, y presentado en un dispositivo diferente 20 mostrado en la FIGURA 2, el cual se denominará dispositivo de destino 20.
El dispositivo de captura 10 incluye una pantalla 11 y un sistema 12 de cámaras que comprende dos cámaras 13 utilizadas para capturar el par estereoscópico de imágenes de la cabeza de un observador de origen 14. El observador de origen 14 ve la pantalla 11 a lo largo de la línea 15. Las cámaras 13 del sistema 12 de cámaras están desplazadas de la pantalla 11, estando, en este caso, por encima de la pantalla 11. Por tanto, las cámaras 13 en la práctica miran al observador de origen 14 desde arriba a lo largo de la línea 16.
El dispositivo 20 de pantalla incluye una pantalla 21 que es una pantalla estereoscópica de cualquier tipo conocido, por ejemplo, una pantalla autoestereoscópica de cualquier tipo conocido. La pantalla 21 presenta el par estereoscópico de imágenes capturado por el dispositivo de captura 10. Un observador de destino 24 ve la pantalla 21. Si el observador de destino 24 se encuentra en una posición de visualización normal perpendicular al centro de la pantalla 21, tal como se muestra mediante el contorno sólido del observador de destino 24, entonces el observador de destino 24 percibe que la mirada del observador de origen 14 está hacia abajo, en lugar de mirando hacia el observador de destino 24, porque las cámaras 13 del dispositivo de origen 10 miran al observador de origen 14 desde arriba.
Aunque las cámaras 13 están por encima de la pantalla 11 en este ejemplo, las cámaras 13, en general, podrían estar en cualquier ubicación adyacente a la pantalla 11, y la mirada del observador de origen 14 percibida por el observador de destino 24 sería correspondientemente incorrecta.
Si el observador de destino 24 se encuentra en una posición de visualización desplazada, tal como se muestra mediante el contorno punteado del observador de destino 24, de modo que el observador de destino 24 ve la pantalla 21 a lo largo de la línea 26, entonces el desplazamiento del observador de destino 24 crea un error adicional en la mirada del observador de origen 14 percibida por el observador de destino 24. Un error adicional similar en la mirada percibida del observador de origen 14 se produce si el observador de destino 24 se encuentra en la posición de visualización normal a lo largo de la línea 25, pero el par estereoscópico de imágenes se presenta en la pantalla 25 en una posición desplazada del centro de la pantalla 25.
Un par estereoscópico de imágenes es un ejemplo de imágenes multivista en el que hay dos imágenes. Aunque la FIGURA 1 ilustra un ejemplo en el que el sistema 12 de cámaras incluye dos cámaras 13 que capturan un par estereoscópico de imágenes, alternativamente el sistema de cámaras puede incluir más de dos cámaras 13 que capturan más de dos imágenes multivista, en cuyo caso existen problemas similares de mirada percibida incorrecta en la presentación.
La FIGURA 3 ilustra un procedimiento de ajuste de imágenes multivista para corregir dichos errores en la mirada percibida. Por simplicidad, este procedimiento se describirá con respecto al ajuste de imágenes multivista que comprenden un par estereoscópico de imágenes. El procedimiento se puede generalizar a imágenes multivista que comprenden más de dos imágenes, sencillamente llevando a cabo un procesamiento similar en un número mayor de imágenes.
El procedimiento se puede llevar a cabo en un procesador 30 de imagen. El procesador 30 de imagen se puede implementar mediante un procesador que ejecuta un programa informático apropiado o mediante hardware dedicado o mediante alguna combinación de software y hardware. Si se utiliza un programa informático, el programa informático puede comprender instrucciones en cualquier lenguaje apropiado y se puede almacenar en un medio de almacenamiento legible por ordenador, que puede ser de cualquier tipo, por ejemplo: un medio de grabación que es insertable en una unidad del sistema informático y que puede almacenar información de forma magnética, óptica u optomagnética; un medio de grabación fijo del sistema informático, tal como una unidad de disco duro; o una memoria de ordenador.
El procesador 30 de imagen se puede disponer en el dispositivo de origen 10, el dispositivo de destino 10 o en cualquier otro dispositivo, por ejemplo, un servidor en una red de telecomunicaciones, lo que puede ser apropiado en caso de que el dispositivo de origen 10 y el dispositivo de destino 10 se comuniquen sobre dicha red de telecomunicaciones.
El par estereoscópico de imágenes 31 se captura mediante el sistema 12 de cámaras. Aunque en la FIGURA 1 se ilustra que el sistema 12 de cámaras incluye dos cámaras 13, esto no es limitativo, y, de forma más general, el sistema 13 de cámaras puede tener las siguientes propiedades.
El sistema de cámaras comprende un conjunto de cámaras 13, con por lo menos dos cámaras 13. Habitualmente, las cámaras están separadas una distancia menor de la distancia intrapupilar humana promedio. En la alternativa de que el procedimiento se aplique a más de dos imágenes multivista, entonces hay más de dos cámaras 13, es decir, una imagen de cámaras 13.
Las cámaras 13 están relacionadas espacialmente entre sí y con la pantalla 11. La relación espacial entre las propias cámaras 13 y entre las cámaras 13 y la pantalla 11 se conoce con antelación. Se pueden aplicar procedimientos conocidos para encontrar la relación espacial, por ejemplo, un procedimiento de calibración que utiliza una imagen de referencia, o una especificación a priori.
Las cámaras 13 se orientan en la misma dirección que la pantalla 11. Por tanto, cuando el observador de origen 14 está viendo la pantalla 11, entonces las cámaras 13 se orientan hacia el observador de origen 14 y el par estereoscópico de imágenes capturado son imágenes de la cabeza del observador de origen 14. Las cámaras en el sistema de cámaras pueden tener diferentes campos de visión.
El sistema 12 de cámaras puede incluir cámaras 13 que tengan diferentes modalidades de detección, incluyendo luz visible e infrarrojos.
La salida principal del sistema 13 de cámaras es un par estereoscópico de imágenes 31 que habitualmente son imágenes de vídeo emitidas a una tasa de vídeo. La salida del sistema 13 de cámaras también puede incluir datos que representan la relación espacial entre las cámaras 13 y la pantalla 11, la naturaleza de las modalidades de detección y los parámetros internos de las cámaras 13 (por ejemplo, longitud focal, eje óptico), que se pueden utilizar para la localización angular.
El procedimiento llevado a cabo sobre el par estereoscópico de imágenes 31 es como sigue. Para ilustrar el procedimiento, también se hace referencia a la FIGURA 4, que muestra un ejemplo del par estereoscópico de imágenes 31 en varias etapas del procedimiento.
En la etapa S1, el par estereoscópico de imágenes 31 se analiza para detectar la ubicación de la cabeza y, en particular, de los ojos del observador de origen 14 dentro del par estereoscópico de imágenes 31. Esto se lleva a cabo detectando la presencia de la cabeza, haciendo un seguimiento de la cabeza y localizando los ojos de la cabeza. La etapa S1 se puede llevar a cabo utilizando diversas técnicas que son conocidas en la técnica.
Una técnica posible para detectar la presencia de la cabeza es utilizar cascadas de características de Haar, por ejemplo, tal como se describe en el documento de Viola y Jones, "Rapid Object Detection using a Boosted Cascade of Simple Features", CVPR 2001, págs. 1-9.
Una técnica posible para hacer un seguimiento de la cabeza es utilizar el enfoque de modelos de apariencia activa para proporcionar la posición de la cabeza del sujeto, así como la ubicación de los ojos, por ejemplo, tal como se describe en el documento de Cootes et al., "Active shape models - their training and application", Computer Vision and Image Understanding, 61(1):38-59, enero de 1995 y en el documento de Cootes et al. "Active appearance models", IEEE Trans. Pattern Analysis and Machine Intelligence, 23(6):681-685, 2001.
En la etapa S1, habitualmente, un conjunto de puntos individuales ("puntos de referencia") se ajustan a regiones de la cara, habitualmente los ojos, por ejemplo, las esquinas del ojo, las ubicaciones de los párpados superior e inferior, etc., localizando, por tanto, los ojos.
En la etapa S2, las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza, se identifican respectivamente en cada imagen 31 del par estereoscópico. La FIGURA 4 muestra las áreas de imagen identificadas 32 del ojo derecho en cada imagen 31 (omitiéndose las áreas de imagen para el ojo izquierdo en la FIGURA 4 por claridad).
La etapa S2 se puede llevar a cabo tal como se muestra en la FIGURA 5 como sigue.
En la etapa S2-1, las áreas 32 de imagen que contienen los ojos izquierdo y derecho de la cabeza se identifican en cada imagen 31 del par estereoscópico. Esto se realiza identificando un área 39 de imagen en cada imagen 31 ubicada alrededor de los puntos identificados ("puntos de referencia") correspondientes a características de un ojo, como se muestra, por ejemplo, en la FIGURA 4.
En la etapa S2-2, las áreas 32 de imagen identificadas en la etapa S2-1 se transforman en un sistema de coordenadas normalizado, siendo el mismo sistema de coordenadas normalizado que el utilizado en el proceso de aprendizaje automático que se describe adicionalmente más adelante. La transformación se elige para alinear los puntos ("puntos de referencia") del ojo dentro de las áreas de imagen que se identificaron en la etapa S1, con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir traslación, rotación y escalado, en las cantidades apropiadas para conseguir esa alineación. La salida de la etapa S2-2 son áreas de imagen identificadas 33 del ojo derecho en cada imagen en el sistema de coordenadas normalizado, tal como se muestra, por ejemplo, en la FIGURA 4.
Las siguientes etapas se llevan a cabo de forma independiente (a) con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen 31 del par estereoscópico, y (b) con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen 31 del par estereoscópico. Por brevedad, la siguiente descripción se referirá sencillamente a áreas de imagen y ojos sin especificar el ojo izquierdo o derecho, pero teniendo en cuenta que se llevan a cabo las mismas etapas para los ojos izquierdo y derecho.
En la etapa S3, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales de un área de imagen 33 en por lo menos una imagen 31 del par estereoscópico. Dependiendo del enfoque y, tal como se describe adicionalmente más adelante, puede ser un área de imagen en una única imagen 31 del par estereoscópico o pueden ser ambas imágenes 31 del par estereoscópico. Por tanto, los descriptores de imagen locales son descriptores de imagen locales obtenidos en el sistema de coordenadas normalizado.
Los vectores de características 34 son representaciones de las áreas de imagen 33 que son apropiadas para su utilización en la búsqueda de datos de referencia 35 que comprenden campos vectoriales de desplazamiento de referencia que representan transformaciones del área de imagen y están asociados con posibles valores del vector de características.
Los datos de referencia 35 se obtienen y analizan con antelación utilizando una técnica de aprendizaje automático que obtiene la forma de los vectores de características 34 y asocia los campos vectoriales de desplazamiento de referencia con los posibles valores del vector de características. Por consiguiente, a continuación, se describirá la técnica de aprendizaje automático antes de volver al procedimiento de la FIGURA 3.
La entrada de entrenamiento para la técnica de aprendizaje automático son dos conjuntos de imágenes, que pueden ser pares estereoscópicos de imágenes o imágenes monoscópicas, tal como se analiza adicionalmente más adelante. Cada conjunto comprende imágenes de la cabeza del mismo grupo de individuos, pero capturadas con cámaras en diferentes ubicaciones con respecto a la mirada, de modo que la mirada percibida difiere entre ellas. El primer conjunto son imágenes de entrada, siendo imágenes de cada individuo con una mirada incorrecta, donde el error se conoce a priori. En particular, las imágenes en el primer conjunto se pueden capturar mediante por lo menos una cámara en una ubicación de cámara conocida donde la mirada del individuo está en una dirección conocida diferente. Por ejemplo, en el caso del dispositivo de origen de la FIGURA 1, la ubicación de cámara puede ser la ubicación de la cámara 13 y la mirada del individuo representado es hacia el centro de la pantalla 11.
El segundo conjunto son imágenes de salida, siendo imágenes de cada individuo con la mirada correcta para una ubicación del observador predeterminada con respecto a la ubicación de pantalla en la que se va a presentar la imagen. En el caso más sencillo, la ubicación del observador es una posición de visualización normal perpendicular al centro de la ubicación de pantalla, por ejemplo, como se muestra mediante el contorno sólido del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2.
Para cada imagen en los dos conjuntos, la imagen se analiza para detectar la ubicación de la cabeza, y, en particular, de los ojos utilizando la misma técnica utilizada en la etapa S1 descrita anteriormente, y, a continuación, las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se identifican, respectivamente, utilizando la misma técnica utilizada en la etapa S2 descrita anteriormente. A continuación, las siguientes etapas se llevan a cabo de forma independiente (a) con respecto a las áreas de imagen que contienen el ojo izquierdo de la cabeza en cada imagen, y (b) con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en
cada imagen. Por brevedad, la siguiente descripción se referirá sencillamente a áreas de imagen y ojos sin especificar el ojo izquierdo o derecho, pero teniendo en cuenta que se llevan a cabo las mismas etapas para los ojos izquierdo y derecho.
Cada área de imagen se transforma en el mismo sistema de coordenadas normalizado utilizado en la etapa S2 descrita anteriormente. Tal como se ha descrito anteriormente, la transformación se elige para alinear puntos ("puntos de referencia") del ojo con ubicaciones predeterminadas en el sistema de coordenadas normalizado. La transformación puede incluir traslación, rotación y escalado, en las cantidades apropiadas para conseguir esa alineación.
Por tanto, las áreas de imagen de las imágenes de entrada y de salida de cada individuo se alinean en el sistema de coordenadas normalizado.
A partir de una imagen de entrada y de salida de cada individuo, se obtiene un campo vectorial de desplazamiento que representa la transformación del área de imagen en la imagen de entrada requerida para obtener el área de imagen de la imagen de salida, por ejemplo, como sigue. Definiendo posiciones en las áreas de imagen mediante (x, y), el campo vectorial de desplazamiento F viene dado por
F = [u(x,y),v(x,y)}
donde u y v definen las componentes horizontal y vertical del vector en cada posición (x, y).
El campo vectorial de desplazamiento F se elige de modo que el área de imagen de la imagen de salida O(x, y) se obtiene a partir del área de imagen de la imagen de entrada I(x, y) como
0(x ,y) = l(x u(x,y ) ,y v(x,y ))
Para datos de imagen desde más de una cámara, el sistema entrega un campo vectorial de desplazamiento para la imagen de entrada desde cada cámara.
El campo vectorial de desplazamiento F para una imagen de entrada y de salida de un individuo se puede obtener utilizando un proceso en el que un vector de características de prueba F' = {u', v'} se modifica para minimizar el error, opcionalmente en un proceso iterativo, por ejemplo, según:
Por medio de un ejemplo no limitativo, el campo vectorial de desplazamiento F se puede obtener tal como se describen en el documento de Kononenko et al., "Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, págs. 4667-4675, en el que el campo vectorial de desplazamiento F se denomina "campo de flujo".
Se utiliza una técnica de aprendizaje automático para obtener una correspondencia entre el campo vectorial de desplazamiento F de cada individuo y vectores de características respectivos obtenidos a partir de varios descriptores de imagen locales del área de imagen de la imagen de entrada.
Los descriptores locales capturan información relevante de una parte local del área de imagen de la imagen de entrada, y el conjunto de descriptores normalmente forma una salida vectorial continua.
Los descriptores de imagen locales introducidos en el proceso de aprendizaje automático son de los tipos esperados para proporcionar una discriminación entre diferentes individuos, aunque los descriptores de imagen locales específicos se seleccionan y optimizan mediante el propio proceso de aprendizaje automático. En general, los descriptores de imagen locales pueden ser de cualquier tipo apropiado, siendo como sigue algunos ejemplos no limitativos que se pueden aplicar en cualquier combinación.
Los descriptores de imagen locales pueden incluir valores de píxeles individuales o una combinación lineal de los mismos. Dicha combinación lineal puede ser, por ejemplo, la diferencia entre los píxeles en dos puntos, un núcleo obtenido dentro de una máscara en una ubicación arbitraria, o una diferencia entre dos núcleos en ubicaciones diferentes.
Los descriptores de imagen locales pueden incluir distancias de una ubicación de píxel desde la posición de un punto de ojo ("punto de referencia").
Los descriptores de imagen locales pueden incluir características SIFT (características de transformación de características de escala invariante), por ejemplo, tal como se describe en el documento de Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision 60 (2), págs. 91 -110.
Los descriptores de imagen locales pueden incluir características HOG (características de histograma de gradientes orientados), por ejemplo, tal como se describe en el documento de Dalal et al. "Histograms of Oriented Gradients for Human Detection", Computer Vision and Pattern Recognition, 2005, págs. 886-893.
La obtención del vector de características a partir de varios descriptores de imagen locales depende del tipo de aprendizaje automático aplicado.
En un primer tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores obtenidos a partir de los descriptores de imagen locales en un espacio discreto, siendo valores binarios o valores discretizados en más de dos valores posibles. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F obtenido a partir de la entrada de entrenamiento con cada valor posible del vector de características en el espacio discreto, de modo que los datos de referencia 35 son esencialmente una tabla de búsqueda. Esto permite seleccionar un campo vectorial de desplazamiento de referencia F sencillamente a partir de los datos de referencia 35 basándose en el vector de características 34 obtenido en la etapa S3, tal como se describe a continuación.
En caso de que el vector de características comprenda características que son valores binarios obtenidos a partir de los descriptores de imagen locales, el vector de características tiene una representación binaria. Dichos valores binarios se pueden obtener de varias formas a partir de los valores de los descriptores, por ejemplo, comparando el valor de un descriptor con un umbral, comparando el valor de dos descriptores, o comparando la distancia de una ubicación de píxel desde la posición de un punto de ojo ("punto de referencia").
Alternativamente, el vector de características puede comprender características que son valores discretizados de los descriptores de imagen locales. En este caso, son posibles más de dos valores discretos de cada característica. Se puede aplicar cualquier técnica de aprendizaje automático apropiada, por ejemplo, utilizar un árbol de decisión, un bosque de decisión, un helecho de decisión o un conjunto o una combinación de los mismos.
A modo de ejemplo, una técnica de aprendizaje automático apropiada que utiliza un vector de características que comprende características que son valores binarios obtenidos comparando un conjunto de píxeles del individuo o una combinación lineal de los mismos con un umbral, se describe en el documento de Ozuysal et al. "Fast Keypoint Recognition in Ten Lines of Code", Computer Vision and Pattern Recognition, 2007, págs. 1-8.
A modo otro ejemplo adicional, una técnica de aprendizaje automático apropiada que utiliza la distancia de una ubicación de píxel con la posición de un punto de referencia de ojo se describe en el documento de Kononenko et al., "Learning To Look Up: Realtime Monocular Gaze Correction Using Machine Learning", Computer Vision and Pattern Recognition, 2015, págs. 4667-4675.
A modo otro ejemplo adicional, una técnica de aprendizaje automático apropiada que utiliza un bosque de decisión aleatorio se describe en el documento de Ho, "Random Decision Forests", Proceedings of the 3rd International Conference on Document Analysis and Recognition, Montreal, QC, 14-16 de agosto de 1995, págs. 278-282.
En un segundo tipo de técnica de aprendizaje automático, el vector de características puede comprender características que son valores discretos de los descriptores de imagen locales en un espacio continuo. En este caso, la técnica de aprendizaje automático asocia un campo vectorial de desplazamiento de referencia F obtenido a partir de la entrada de entrenamiento con valores discretos posibles del vector de características en el espacio continuo. Esto permite obtener un campo vectorial de desplazamiento F a partir de los datos de referencia 35 mediante interpolación de los campos vectoriales de desplazamiento de referencia, basándose en la relación entre el vector de características 34 obtenido en la etapa S3 y los valores del vector de características asociados con los campos vectoriales de desplazamiento de referencia.
Se puede aplicar cualquier técnica de aprendizaje automático apropiada, por ejemplo, utilizar regresión de vectores de soporte.
A modo de ejemplo, una técnica de aprendizaje automático apropiada que utiliza regresión de vectores de soporte se describe en el documento de Drucker et al. "Support Vector Regression Machines", Advances in Neural Information Processing Systems 9, NIPS 1996, 155-161. La salida de la técnica es un conjunto continuamente variable de direcciones de interpolación que forman parte de los datos de referencia 35 y se utilizan en la interpolación.
La técnica de aprendizaje automático, independientemente de su tipo, también obtiene inherentemente la forma de los vectores de características 34 que se utiliza para obtener los campos vectoriales de desplazamiento de referencia F. Se trata de la forma de los vectores de características 34 que se obtiene en la etapa S3.
Opcionalmente, la salida de la técnica de aprendizaje automático se puede aumentar para proporcionar valores de confianza asociados con la obtención de un campo vectorial de desplazamiento a partir de los datos de referencia 35.
En caso de que el vector de características comprenda características que son valores en un espacio discreto, se obtiene un valor de confianza para cada campo vectorial de desplazamiento de referencia.
Un ejemplo de obtención de un valor de confianza es mantener, para cada índice resultante (valor del vector de características) en la tabla de búsqueda resultante, la distribución de la parte correspondiente de la imagen de entrada en los datos de entrenamiento. En este caso, el valor de confianza puede ser la cantidad de datos de entrenamiento que finalizaron con el mismo índice, dividida por el número total de ejemplares de datos de entrenamiento.
Otro ejemplo de obtención de un valor de confianza es ajustar una Gaussiana en la distribución de imágenes de entrada en los datos de entrenamiento en cada tramo indexado, y utilizar la traza de la matriz de covarianza alrededor del valor medio como el valor de confianza.
En caso de que el vector de características comprenda características que son valores discretos de los descriptores de imagen locales en un espacio continuo, los valores de confianza se pueden obtener según el procedimiento de aprendizaje automático utilizado. Por ejemplo, cuando se utiliza regresión de vectores de soporte, los valores de confianza pueden ser la inversa de la distancia máxima hasta los vectores de soporte.
Si se utilizan, los valores de confianza se almacenan como parte de los datos de referencia.
A continuación, la descripción vuelve al procedimiento de la FIGURA 3.
En la etapa S4, por lo menos un campo vectorial de desplazamiento 37 que representa una transformación de un área de imagen se obtiene utilizando el vector de características 34 obtenido en la etapa S3 para buscar los datos de referencia 35. Debido a la obtención del campo vectorial de desplazamiento 37 a partir de los datos de referencia 35, la transformación representada por el mismo corrige la mirada que se percibirá cuando se presente el par estereoscópico de imágenes 31.
En caso de que el vector de características 34 comprenda características que son valores en un espacio discreto y los campos vectoriales de desplazamiento de referencia de los datos de referencia 35 comprendan un campo vectorial de desplazamiento de referencia asociado con cada valor posible del vector de características en el espacio discreto, entonces el campo vectorial de desplazamiento para el área de imagen se obtiene seleccionando el campo de desplazamiento de referencia asociado con el valor real del vector de características obtenido 34.
En caso de que el vector de características 34 comprenda características que son valores discretos de los descriptores de imagen locales en un espacio continuo, entonces el campo vectorial de desplazamiento para el área de imagen se obtiene interpolando un campo vectorial de desplazamiento a partir de los campos vectoriales de desplazamiento de referencia, basándose en la relación entre el valor real del vector de características obtenido 34 y los valores de los vectores de características asociados con los campos vectoriales de desplazamiento de referencia. En caso de que la técnica de aprendizaje automático sea regresión de vectores de soporte, esto se puede hacer utilizando direcciones de interpolación que forman parte de los datos de referencia 35.
A continuación, se describirán algunos enfoques diferentes para la obtención del campo vectorial de desplazamiento 37 en la etapa S4.
En un primer enfoque, en la etapa S4, el campo vectorial de desplazamiento 37 se obtiene con respecto a las áreas de imagen en cada imagen 31 del par estereoscópico de forma independiente. Este primer enfoque se puede aplicar cuando los datos de referencia 35 se obtuvieron a partir de imágenes monoscópicas. Este enfoque proporciona la corrección de la mirada, pero existe el riesgo de que los campos vectoriales de desplazamiento 37 con respecto a cada imagen puedan ser inconsistentes entre sí, con el resultado de que se lleven a cabo subsiguientemente transformaciones en conflicto que pueden distorsionar el efecto estereoscópico y/o reducir la calidad de la imagen. Otros enfoques que solucionan este problema son como sigue.
En un segundo enfoque posible, los varios descriptores de imagen locales utilizados para obtener el vector de características 34 en la etapa S3 son varios descriptores de imagen locales en ambas imágenes del par estereoscópico. En este caso, los datos de referencia 35 comprenden de manera similar pares de campos vectoriales de desplazamiento de referencia para cada imagen 31 del par de imágenes estereoscópicas, siendo estos los pares de campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características 34.
Este segundo enfoque permite obtener un par de campos vectoriales de desplazamiento 35 a partir de los datos de referencia 35, que es un campo vectorial de desplazamiento para cada imagen 31 del par estereoscópico. Por definición, los campos vectoriales de desplazamiento obtenidos para cada imagen 31 del par estereoscópico son inherentemente coherentes, ya que se obtienen en conjunto a partir de los pares coherentes de campos vectoriales de desplazamiento de referencia en los datos de referencia 35.
La desventaja de este segundo enfoque es que requiere que los datos de referencia 35 se obtengan a partir de la entrada de entrenamiento para la técnica de aprendizaje automático, que son pares estereoscópicos de imágenes. Esto no crea ninguna dificultad técnica, pero puede crear algunos inconvenientes prácticos, ya que las imágenes monoscópicas están disponibles más comúnmente. En consecuencia, se pueden aplicar los siguientes enfoques cuando los datos de referencia 35 se obtienen a partir de una entrada de entrenamiento para la técnica de aprendizaje automático que sean imágenes monoscópicas.
En un tercer enfoque posible, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales que son varios descriptores de imagen locales obtenidos a partir de una imagen del par estereoscópico. En ese caso, los campos vectoriales de desplazamiento 37 se obtienen tal como se muestra en la FIGURA 6, como sigue.
En la etapa S4-1, se obtiene un primer campo vectorial de desplazamiento 37 que representa una transformación del área de imagen en dicha una imagen 31 del par estereoscópico (que puede ser cualquiera de las dos imágenes 31). Esto se realiza utilizando el vector de características obtenido 34 para buscar los datos de referencia 35.
En la etapa S4-2, se obtiene un campo vectorial de desplazamiento 37 que representa una transformación del área de imagen en la otra imagen 31 del par estereoscópico. Esto se realiza transformando el campo vectorial de desplazamiento obtenido en la etapa S4-1 según una estimación del flujo óptico entre las áreas de imagen en las imágenes 31 del par estereoscópico.
El flujo óptico representa el efecto de las diferentes ubicaciones de cámara entre las imágenes 31 del par estereoscópico. Dicho flujo óptico es conocido por sí mismo y se puede estimar utilizando técnicas conocidas, por ejemplo, tal como se describe en el documento de Zach et al., "A Duality Based Approach for Realtime TV-LI Optical Flow", Pattern Recognition (Proc. DAGM), 2007, págs. 214-223.
A modo de ejemplo, si el primer campo vectorial de desplazamiento 37 obtenido en la etapa S4-1 es para la imagen izquierda Lo, Li (donde los subíndices o e i representan, respectivamente, las imágenes de entrada y de salida), y el flujo óptico para la imagen derecha Ro se representa mediante un campo vectorial de desplazamiento G dado por G = {s (x ,y ) , í(x ,y ) }
entonces el segundo campo vectorial de desplazamiento 37 se puede obtener según
R0(x,y) = L0{x s (x ,y ) ,y í ( x ,y ) ) = L¿(x s u{x + s ,y í , y í v(x s, y í) ) Por tanto, en el tercer enfoque, los campos vectoriales de desplazamiento 37 obtenidos con respecto a cada imagen 31 del par estereoscópico son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia 35, y el otro campo vectorial de desplazamiento se obtiene a partir del mismo utilizando una transformación que mantiene la coherencia porque se obtiene según una estimación del flujo óptico entre las áreas de imagen en las imágenes 31 del par estereoscópico.
En un cuarto enfoque posible, se obtiene un vector de características 34 a partir de varios descriptores de imagen locales que son varios descriptores de imagen locales obtenidos a partir de ambas imágenes del par estereoscópico. En ese caso, los campos vectoriales de desplazamiento 37 se obtienen tal como se muestra en la FIGURA 7, como sigue.
En la etapa S4-3, un campo vectorial de desplazamiento inicial representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional en una ubicación predeterminada con respecto a las ubicaciones de cámara de las imágenes 31, en este ejemplo entre las ubicaciones de cámara de las imágenes 31. Se puede pensar en esto como un ojo ciclópeo. Esto se realiza utilizando el vector de características obtenido 34 para buscar los datos de referencia 35 que comprenden campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características. Esto significa que los datos de referencia 35 están correspondientemente estructurados, pero todavía pueden obtenerse a partir de la entrada de entrenamiento que comprende imágenes monoscópicas.
En la etapa S4-4, se obtienen campos vectoriales de desplazamiento 37 que representan transformaciones de las áreas de imagen en cada imagen 31 del par estereoscópico. Esto se realiza transformando el campo vectorial de desplazamiento inicial obtenido en la etapa S4-3 según una estimación del flujo óptico entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes 31 del par estereoscópico.
El flujo óptico representa el efecto de las diferentes ubicaciones de cámara entre la imagen nocional y las imágenes 31 del par estereoscópico. Dicho flujo óptico es conocido por sí mismo y se puede estimar utilizando técnicas conocidas, por ejemplo, tal como se describe en el documento de Zach et al., "A Duality Based Approach for Realtime TV-L1 Optical Flow", Pattern Recognition (Proc. DAGM), 2007, págs. 214-223 (citado anteriormente). A modo de ejemplo, si el flujo óptico desde la imagen izquierda L hasta la imagen derecha R se representa mediante un campo vectorial de desplazamiento G dado por
G = (s (x ,y ) , t(x ,y ) }
entonces la transformación que obtiene la imagen nocional C viene dada por
Por tanto, en este ejemplo, el campo vectorial de desplazamiento inicial F obtenido en la etapa S4-3 para esta imagen nocional C se transforma en la etapa S4-4 para obtener los campos de flujo Frc y Flc para las imágenes derecha e izquierda según
Por tanto, en el cuarto enfoque, los campos vectoriales de desplazamiento 37 obtenidos con respecto a cada imagen 31 del par estereoscópico son coherentes, porque solo se obtiene un campo vectorial de desplazamiento a partir de los datos de referencia 35, representando esto una transformación nocional de un área de imagen nocional en una imagen nocional, y los campos vectoriales de desplazamiento para las imágenes izquierda y derecha se obtienen a partir de los mismos utilizando una transformación que mantiene la coherencia porque se obtiene según una estimación del flujo óptico entre las áreas de imagen en la imagen nocional y en las imágenes 31 del par estereoscópico.
En la etapa S5, cada imagen 31 del par estereoscópico se ajusta transformando las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos 37. Esto produce un par estereoscópico de imágenes ajustado 38, tal como se muestra en la FIGURA 4, en la que la mirada se ha corregido. En particular, el ajuste se puede llevar a cabo utilizando dos procedimientos alternativos, como sigue.
Un primer procedimiento para llevar a cabo la etapa S5 se muestra en la FIGURA 8 y se lleva a cabo como sigue. En la etapa S5-1, el área de imagen se transforma en el sistema de coordenadas normalizado según el campo vectorial de desplazamiento correspondiente 37 con respecto a la misma imagen, corrigiendo de este modo la mirada. Tal como se ha descrito anteriormente, para un campo vectorial de desplazamiento F la transformación del área de imagen de la imagen de entrada I(x, y) proporciona la imagen de salida O(x, y) según
0 (x ,y ) = / ( x w (x ,y ),y v (x ,y ))
En la etapa S5-2, el área de imagen transformada entregada en la etapa S5-1 se transforma desde el sistema de coordenadas normalizado, de vuelta al sistema de coordenadas original de la imagen correspondiente 31. Esto se realiza utilizando la transformación inversa a la aplicada en la etapa S2-2.
En la etapa S5-3, el área de imagen transformada entregada en la etapa S5-2 se superpone sobre la imagen correspondiente 31. Esto se puede realizar con una sustitución completa dentro de la región del ojo correspondiente al propio ojo, y una transición suavizada entre el área de imagen transformada y la imagen original 31 sobre una región de límite alrededor de la región del ojo. La anchura de la región de límite puede ser de tamaño fijo o un porcentaje del tamaño del área de imagen en la imagen original 31.
Un segundo procedimiento para llevar a cabo la etapa S5 se muestra en la FIGURA 9 y se lleva a cabo como sigue. En este segundo procedimiento alternativo, volver a realizar la transformación al sistema de coordenadas de la imagen correspondiente 31 se produce antes de la transformación del área de imagen según el campo vectorial de desplazamiento transformado F.
En la etapa S5-4, el campo vectorial de desplazamiento F se transforma desde el sistema de coordenadas normalizado, de vuelta al sistema de coordenadas original de la imagen correspondiente 31. Esto se realiza utilizando la transformación inversa a la aplicada en la etapa S2-2.
En la etapa S5-5, el área 32 de imagen en el sistema de coordenadas de la imagen 31 se transforma según el campo vectorial de desplazamiento F que se ha transformado al mismo sistema de coordenadas en la etapa S5-4. Tal como se ha descrito anteriormente, para un campo vectorial de desplazamiento F la transformación del área de imagen de la imagen de entrada I(x, y) proporciona la imagen de salida O(x, y) según
0(x,y) = l (x u(x ,y) ,y v( x ,y ))
pero ahora esto se lleva a cabo en el sistema de coordenadas de la imagen original 31.
La etapa S5-6 es la misma que la S5-3. Por tanto, en la etapa S5-6, el área de imagen transformada entregada en la etapa S5-5 se superpone sobre la imagen correspondiente 31. Esto se puede realizar con una sustitución completa dentro de una región del ojo correspondiente al propio ojo, y una transición suavizada entre el área de imagen transformada y la imagen original 31 sobre una región de límite alrededor de la región del ojo. La anchura de la región de límite puede ser de tamaño fijo o un porcentaje del tamaño del área de imagen en la imagen original 31. A continuación, se analizarán los campos vectoriales de desplazamiento 37 utilizados en la etapa S5.
Una opción es que los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4 con respecto a las imágenes izquierda y derecha se utilicen directamente en la etapa S5. Es decir, el área de imagen con respecto a cada imagen 31 del área estereoscópica se transforma según el campo vectorial de desplazamiento 37 con respecto a esa imagen 31. Esto es apropiado si los campos vectoriales de desplazamiento 37 son lo suficientemente precisos, por ejemplo, porque se han obtenido a partir de datos de referencia 35 que se obtienen en sí mismos a partir de imágenes estereoscópicas según el segundo enfoque descrito anteriormente.
Una opción alternativa según un quinto enfoque es que se obtenga y se utilice un campo vectorial de desplazamiento combinado 39. Esto se puede aplicar en combinación con cualquiera del primer al cuarto enfoques analizados anteriormente. En este caso, la etapa S5 incluye adicionalmente la etapa S5-a, tal como se muestra en la FIGURA 10, que se lleva a cabo antes de la etapa S5-1 en el primer procedimiento de la FIGURA 8 o antes de la etapa S5-4 en el segundo procedimiento de la FIGURA 9. En la etapa S5-a, se obtiene un campo vectorial de desplazamiento combinado 39 a partir de los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4 con respecto a las áreas de imagen en cada imagen 31 del par estereoscópico.
El resto de la etapa S5 se lleva a cabo a continuación utilizando el campo vectorial de desplazamiento combinado 39 con respecto a cada imagen 31. Es decir, en el primer procedimiento de la FIGURA 8, el área de imagen 33 con respecto a cada imagen 31 del par estereoscópico se transforma en la etapa S5-1 según el campo vectorial de desplazamiento combinado 39. De manera similar, en el segundo procedimiento de la FIGURA 9, en la etapa S5-4 se transforma el campo vectorial de desplazamiento combinado 39 y en la etapa S5-5 se transforma el área de imagen 33 con respecto a cada imagen 31 del par estereoscópico según ese campo vectorial de desplazamiento combinado 39.
En este caso, los campos vectoriales de desplazamiento para cada imagen son coherentes porque son iguales. La combinación en la etapa S5-la se puede llevar a cabo de cualquier forma apropiada.
En un ejemplo, la combinación en la etapa S5-la puede ser un promedio sencillo de los campos vectoriales de desplazamiento 37 obtenidos en la etapa S4.
En otro ejemplo, la combinación en la etapa S5-la puede ser un promedio que se pondera mediante un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido 37. En este caso, los valores de confianza forman parte de los datos de referencia 35, de la manera descrita anteriormente, y en la etapa S4 se obtienen los valores de confianza a partir de los datos de referencia 35, junto con el campo vectorial de desplazamiento obtenido 37.
A modo de ejemplo, denotando el campo vectorial de desplazamiento obtenido 37 como Fi, el campo vectorial de desplazamiento combinado 39 como Favg y los valores de confianza como ai, entonces el campo vectorial de desplazamiento combinado 39 se puede obtener como
p = 1 aiFi
avB l a ,
En el ejemplo descrito anteriormente, la mirada se corrige para un observador de destino 24 en una ubicación del observador que es una posición de visualización normal perpendicular al centro de la ubicación de pantalla, por
ejemplo, como se muestra mediante el contorno sólido del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2. Esto es suficiente en muchas situaciones. Sin embargo, a continuación, se describirá una modificación opcional que permite corregir la mirada para un observador de destino 24 en una ubicación del observador diferente, por ejemplo, como se muestra mediante el contorno punteado del observador de destino 24 en el caso del dispositivo de destino 20 de la FIGURA 2.
En este caso, el procedimiento comprende, además, utilizar datos de ubicación 40 que representan la ubicación del observador con respecto a la ubicación de pantalla del par estereoscópico de imágenes 31. Estos datos de ubicación 40 se pueden obtener en el dispositivo de destino 20, por ejemplo, tal como se describe a continuación. En ese caso, si el procedimiento no se lleva a cabo en el dispositivo de destino 20, entonces los datos de ubicación 40 se transmiten al dispositivo en el que se lleva a cabo el procedimiento.
La ubicación relativa del observador puede tener en cuenta la ubicación del observador con respecto a la pantalla 21. Esto se puede determinar utilizando un sistema de cámaras en el dispositivo de destino 20 y un módulo de seguimiento de cabeza apropiado para detectar la ubicación del observador de destino 24.
La ubicación relativa del observador puede suponer que la imagen se muestra centrada en la pantalla 21. Alternativamente, la ubicación relativa del observador puede tener en cuenta la ubicación del observador con respecto a la pantalla 21 y la ubicación de la imagen presentada en la pantalla 21. En este caso, la ubicación de la imagen presentada en la pantalla 21 se puede obtener a partir de la geometría de la pantalla (por ejemplo, la posición y el área de la ventana de pantalla y el tamaño de la pantalla 21).
Para tener en cuenta diferentes ubicaciones de observador, los datos de referencia 34 comprenden varios conjuntos de campos vectoriales de desplazamiento de referencia, estando asociado cada conjunto con ubicaciones de observador diferentes. Esto se consigue haciendo que la entrada de entrenamiento para la técnica de aprendizaje automático comprenda varios segundos conjuntos de imágenes de salida, siendo cada segundo conjunto imágenes de cada individuo con la mirada correcta para una ubicación del observador respectiva, predeterminada, con respecto a la ubicación de pantalla en la que se va a presentar la imagen. Por tanto, en la etapa S4, los campos vectoriales de desplazamiento 37 se obtienen buscando el conjunto de campos vectoriales de desplazamiento de referencia asociados con la ubicación del observador representada por los datos de ubicación.
Tal como se ha descrito anteriormente, el procedimiento se puede implementar en un procesador 30 de imagen proporcionado en diversos dispositivos diferentes. A modo de ejemplo no limitativo, a continuación, se describirá una implementación particular en un sistema de telecomunicaciones que se muestra en la FIGURA 11 y se dispone como sigue.
En esta implementación, el dispositivo de origen 10 y el dispositivo de destino 10 se comunican sobre dicha red de telecomunicaciones 50. Para la comunicación sobre la red de telecomunicaciones 50, el dispositivo de origen 10 incluye una interfaz de telecomunicaciones 17 y el dispositivo de destino 20 incluye una interfaz de telecomunicaciones 27.
En esta implementación, el procesador 30 de imagen está dispuesto en el dispositivo de origen 10 y recibe el par estereoscópico de imágenes directamente desde el sistema 12 de cámaras. La interfaz de telecomunicaciones 17 se dispone para transmitir el par estereoscópico de imágenes ajustado 38 sobre la red de telecomunicaciones 50 al dispositivo de destino 20 para presentarlo en el mismo.
El dispositivo de destino 20 incluye un módulo 28 de presentación de imágenes que controla la pantalla 26. El par estereoscópico de imágenes ajustado 38 se recibe en el dispositivo de destino 20 mediante la interfaz de telecomunicaciones 27 y se proporciona al módulo 28 de presentación de imágenes, lo que hace que se muestre en la pantalla 26.
Los siguientes elementos del dispositivo de destino 20 se incluyen opcionalmente en caso de que el procedimiento corrija la mirada para un observador de destino 24 en una ubicación del observador distinta de la posición de visualización normal perpendicular al centro de la ubicación de pantalla. En este caso, el dispositivo de destino 20 incluye un sistema de cámaras 23 y un módulo de ubicación del observador 29. El sistema de cámaras 23 captura una imagen del observador de destino 24. El módulo de ubicación del observador 29 obtiene los datos de ubicación 40. El módulo de ubicación del observador 29 incluye un módulo de seguimiento de cabeza que utiliza la salida del sistema de cámaras 23 para detectar la ubicación del observador de destino 24. El módulo de la ubicación de observador 29. Si la ubicación relativa del observador también tiene en cuenta la ubicación de la imagen mostrada en la pantalla 21, el módulo de la ubicación de observador 29 obtiene del módulo 28 de presentación de imagen la ubicación de la imagen mostrada en la pantalla 21. La interfaz de telecomunicaciones 17 está dispuesta para transmitir los datos de ubicación 40 sobre la red de telecomunicaciones 50 al dispositivo de origen 10 para su utilización por el mismo.
Aunque la descripción anterior se refiere a un procedimiento aplicado a imágenes proporcionadas desde un dispositivo de origen 10 a un dispositivo de destino 20, el procedimiento puede aplicarse igualmente a imágenes
proporcionadas en el sentido opuesto desde el dispositivo de destino 20 al dispositivo de origen 10, en cuyo caso el dispositivo de destino 20 se convierte en la práctica en el "dispositivo de origen" y el dispositivo de origen 10 se convierte en la práctica en el "dispositivo de destino". Si las imágenes se proporcionan bidireccionalmente, las etiquetas "origen" y "destino" se pueden aplicar a ambos dispositivos, dependiendo del sentido de comunicación que se considere.
Aunque anteriormente se han descrito diversas realizaciones según los principios dados a conocer en la presente memoria, se debe entender que se han presentado solo a modo de ejemplo, y no de limitación. Por tanto, la extensión y el alcance de la presente invención no se deben limitar por ninguna de las realizaciones ejemplares descritas anteriormente, sino que deben definirse únicamente según las reivindicaciones adjuntas.
Asimismo, las ventajas y características anteriores se dan a conocer en las realizaciones descritas, pero no deben limitar la aplicación de dichas reivindicaciones a procesos y estructuras que consigan alguna o todas las ventajas anteriores.
Claims (15)
1. Procedimiento de ajuste de imágenes multivista de una cabeza para corregir la mirada, comprendiendo el procedimiento
en cada imagen (31), identificar áreas de imagen (S2) que contienen los ojos izquierdo y derecho de la cabeza, respectivamente;
con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de:
obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y
obtener (S4) un campo vectorial de desplazamiento que representa una transformación de un área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).
2. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en cada imagen (31) de las imágenes multivista, y
dichos datos de referencia (35) comprenden pares de campos vectoriales de desplazamiento de referencia para cada imagen de las imágenes multivista, los pares de campos vectoriales de desplazamiento de referencia que están asociados con posibles valores del vector de características (34).
3. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en una imagen (31) de las imágenes multivista,
dicha etapa de obtener (S4) campos vectoriales de desplazamiento comprende:
obtener un campo vectorial de desplazamiento que representa una transformación del área (33) de imagen en dicha una imagen de las imágenes multivista, utilizando el vector de características obtenido para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
obtener un campo vectorial de desplazamiento (37) que representa una transformación del área (33) de imagen en la otra o las otras imágenes multivista transformando el campo vectorial de desplazamiento obtenido (37) que representa una transformación del área (33) de imagen en dicha una imagen (31) de las imágenes multivista, según una estimación del flujo óptico entre las áreas de imagen en dicha una imagen (31) de las imágenes multivista y en la otra o las otras imágenes multivista.
4. Procedimiento, según la reivindicación 1, en el que
dichos varios descriptores de imagen locales son varios descriptores de imagen locales en ambas imágenes (31) del par estereoscópico,
dicha etapa de obtener (S4) campos vectoriales de desplazamiento comprende:
obtener un campo vectorial de desplazamiento inicial (37) que representa una transformación nocional de un área de imagen nocional en una imagen nocional que tiene una ubicación de cámara nocional con respecto a las ubicaciones de cámara de las imágenes multivista, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y
obtener campos vectoriales de desplazamiento (37) que representan una transformación de las áreas (33) de imagen en cada imagen (31) de las imágenes multivista transformando el campo vectorial de desplazamiento inicial según una estimación de los flujos ópticos entre las áreas de imagen nocionales en las imágenes nocionales y las áreas de imagen en las imágenes de las imágenes multivista.
5. Procedimiento, según la reivindicación 4, en el que las imágenes multivista son un par estereoscópico de imágenes (31) y la ubicación de cámara nocional está entre las ubicaciones de cámara de las imágenes del par estereoscópico.
6. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
la etapa de obtener (S4) un campo vectorial de desplazamiento comprende obtener campos vectoriales de desplazamiento (37) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y la etapa (S5) de transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se lleva a cabo según los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista,
7. Procedimiento, según cualquiera de las reivindicaciones 1 a 5, en el que
la etapa (S4) de obtener un campo vectorial de desplazamiento comprende obtener campos vectoriales de desplazamiento (37) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y, además, obtener un campo vectorial de desplazamiento combinado (39) a partir de los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, y
la etapa (S5) de transformar las áreas de imagen que contienen los ojos izquierdo y derecho de la cabeza se lleva a cabo según el campo vectorial de desplazamiento combinado (39).
8. Procedimiento, según la reivindicación 7, en el que
los campos vectoriales de desplazamiento de referencia se asocian, además, con valores de confianza, la etapa de obtener campos vectoriales de desplazamiento (S4) con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista comprende, además, obtener un valor de confianza asociado con cada campo vectorial de desplazamiento obtenido (37), y
el campo vectorial de desplazamiento combinado (39) es un promedio de los campos vectoriales de desplazamiento (37) obtenidos con respecto a las áreas (33) de imagen en cada imagen (31) de las imágenes multivista, ponderado por los valores de confianza obtenidos.
9. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
el procedimiento utiliza datos de ubicación (40) que representan una ubicación del observador con respecto a una ubicación de pantalla de las imágenes multivista,
dichos datos de referencia (35) comprenden varios conjuntos de campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34), conjuntos que están asociados con diferentes ubicaciones de observador, y
dicha etapa (S4) de obtener campos vectoriales de desplazamiento que representan una transformación de un área (33) de imagen se lleva a cabo utilizando el vector de características obtenido para buscar el conjunto de campos vectoriales de desplazamiento de referencia asociado con la ubicación del observador representada por los datos de ubicación (40).
10. Procedimiento, según cualquiera de las reivindicaciones anteriores, en el que
el vector de características (34) comprende características que son valores obtenidos de los descriptores de imagen locales en un espacio discreto,
los campos vectoriales de desplazamiento de referencia comprenden un campo vectorial de desplazamiento de referencia asociado con cada posible valor del vector de características (34) en el espacio discreto, y
la etapa (S4) de obtener un campo vectorial de desplazamiento para el área (33) de imagen comprende seleccionar el campo de desplazamiento de referencia asociado con el valor real del vector de características obtenido (34).
11. Procedimiento, según cualquiera de las reivindicaciones 1 a 9, en el que
el vector de características (34) comprende características que son valores discretos de los descriptores de imagen locales en un espacio continuo, y
la etapa (S4) de obtener un campo vectorial de desplazamiento para el área (33) de imagen comprende interpolar un campo vectorial de desplazamiento (37) a partir de los campos vectoriales de desplazamiento de referencia basándose en la relación entre el valor real del vector de características obtenido (34) y los valores de los vectores de características asociados con los campos vectoriales de desplazamiento de referencia.
12. Programa informático capaz de ejecutarse mediante un procesador (30) y dispuesto en su ejecución para hacer que el procesador (30) lleve a cabo el procedimiento según cualquiera de las reivindicaciones anteriores.
13. Dispositivo para ajustar imágenes multivista de una cabeza para corregir la mirada, comprendiendo el dispositivo un procesador (30) de imagen dispuesto para procesar las imágenes multivista de una cabeza del siguiente modo: en cada imagen (31), identificar áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza, respectivamente;
con respecto a las áreas (33) de imagen que contienen el ojo izquierdo de la cabeza en cada imagen de las imágenes multivista, y también con respecto a las áreas (33) de imagen que contienen el ojo derecho de la cabeza en cada imagen de las imágenes multivista, llevar a cabo las etapas de:
obtener (S3) un vector de características a partir de varios descriptores de imagen locales del área (33) de imagen en por lo menos una imagen (31) de las imágenes multivista; y
obtener (S4) un campo vectorial de desplazamiento que representa una transformación del área (33) de imagen, utilizando el vector de características obtenido (34) para buscar datos de referencia (35) que comprendan campos vectoriales de desplazamiento de referencia asociados con posibles valores del vector de características (34); y ajustar (S5) cada imagen de las imágenes multivista transformando las áreas (33) de imagen que contienen los ojos izquierdo y derecho de la cabeza según los campos vectoriales de desplazamiento obtenidos (37).
14. Dispositivo, según la reivindicación 13, que comprende, además, un sistema (23) de cámaras dispuesto para capturar las imágenes multivista y/o una interfaz de telecomunicaciones dispuesta para transmitir las imágenes ajustadas sobre una red de telecomunicaciones (50) a un dispositivo de destino para su presentación en el mismo.
15. Dispositivo, según la reivindicación 13 o 14, en el que las imágenes multivista son un par estereoscópico de imágenes.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662274897P | 2016-01-05 | 2016-01-05 | |
PCT/US2017/012203 WO2017120247A1 (en) | 2016-01-05 | 2017-01-04 | Gaze correction of multi-view images |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2912310T3 true ES2912310T3 (es) | 2022-05-25 |
Family
ID=59226845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17736268T Active ES2912310T3 (es) | 2016-01-05 | 2017-01-04 | Corrección de la mirada en imágenes multivista |
Country Status (5)
Country | Link |
---|---|
US (4) | US10321123B2 (es) |
EP (1) | EP3400706B1 (es) |
CN (2) | CN108463787B (es) |
ES (1) | ES2912310T3 (es) |
WO (1) | WO2017120247A1 (es) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2596062C1 (ru) | 2015-03-20 | 2016-08-27 | Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" | Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения |
ES2912310T3 (es) | 2016-01-05 | 2022-05-25 | Reald Spark Llc | Corrección de la mirada en imágenes multivista |
US10663755B2 (en) * | 2016-04-28 | 2020-05-26 | Hewlett-Packard Development Company, L.P. | Digital displays devices |
EP4293574A3 (en) * | 2017-08-08 | 2024-04-03 | RealD Spark, LLC | Adjusting a digital representation of a head region |
US11017575B2 (en) | 2018-02-26 | 2021-05-25 | Reald Spark, Llc | Method and system for generating data to provide an animated visual representation |
US11042992B2 (en) | 2018-08-03 | 2021-06-22 | Logitech Europe S.A. | Method and system for detecting peripheral device displacement |
CN109407828A (zh) * | 2018-09-11 | 2019-03-01 | 上海科技大学 | 一种凝视点估计方法及系统、存储介质及终端 |
CN108965771B (zh) | 2018-09-29 | 2021-01-26 | 京东方科技集团股份有限公司 | 一种视频通话控制装置及方法、视频通话系统 |
US20220217301A1 (en) * | 2019-04-15 | 2022-07-07 | Shanghai New York University | Systems and methods for interpolative three-dimensional imaging within the viewing zone of a display |
US11360555B2 (en) | 2019-05-20 | 2022-06-14 | Cyberlink Corp. | Systems and methods for automatic eye gaze refinement |
US11347308B2 (en) * | 2019-07-26 | 2022-05-31 | Samsung Electronics Co., Ltd. | Method and apparatus with gaze tracking |
CN112929649A (zh) * | 2019-12-05 | 2021-06-08 | 北京芯海视界三维科技有限公司 | 多视点裸眼3d显示屏、多视点裸眼3d显示终端 |
Family Cites Families (505)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1128979A (en) | 1912-06-01 | 1915-02-16 | Walter Hess | Stereoscopic picture. |
US1970311A (en) | 1931-02-14 | 1934-08-14 | Bell Telephone Labor Inc | Projection of images for viewing in stereoscopic relief |
US2133121A (en) | 1936-04-02 | 1938-10-11 | Richard I Stearns | Stereoscopic screen and method stereoscopic vision |
US2247969A (en) | 1937-12-31 | 1941-07-01 | Adlake Co | Edge glow lighting system |
US2480178A (en) | 1946-05-08 | 1949-08-30 | Ivan H Zinberg | Light conductor |
US2810905A (en) | 1949-08-23 | 1957-10-22 | Sperry Rand Corp | High frequency directive beam apparatus |
US3016475A (en) | 1960-08-19 | 1962-01-09 | Frederick A Kirsten | Phase differential indicating circuit |
US3409351A (en) | 1966-02-07 | 1968-11-05 | Douglas F. Winnek | Composite stereography |
DE2011417A1 (de) | 1970-03-11 | 1971-09-23 | Agfa Gevaert Ag | Projektionsschirm für Projektion mit dreidimensionalem Eindruck |
US3992841A (en) | 1974-08-30 | 1976-11-23 | Ward Jr Robertson | Panel construction and projection screen constructed from such panels |
US4528617A (en) | 1982-02-08 | 1985-07-09 | Sheltered Workshop For The Disabled, Inc. | Light distribution apparatus |
US4542958A (en) | 1983-01-13 | 1985-09-24 | Vasco, Ltd. | Variable aspect display |
JPS6134583A (ja) | 1984-07-26 | 1986-02-18 | シャープ株式会社 | 照明装置 |
US4829365A (en) | 1986-03-07 | 1989-05-09 | Dimension Technologies, Inc. | Autostereoscopic display with illuminating lines, light valve and mask |
US4804253A (en) | 1986-05-15 | 1989-02-14 | General Electric Company | Lenticular filter for display devices |
US4807978A (en) | 1987-09-10 | 1989-02-28 | Hughes Aircraft Company | Color display device and method using holographic lenses |
US5050946A (en) | 1990-09-27 | 1991-09-24 | Compaq Computer Corporation | Faceted light pipe |
DE4102895C1 (es) | 1991-01-31 | 1992-01-30 | Siemens Ag, 8000 Muenchen, De | |
US6392689B1 (en) | 1991-02-21 | 2002-05-21 | Eugene Dolgoff | System for displaying moving images pseudostereoscopically |
JP2566087B2 (ja) | 1992-01-27 | 1996-12-25 | 株式会社東芝 | 有色マイクロレンズアレイ及びその製造方法 |
JP2746790B2 (ja) | 1992-03-02 | 1998-05-06 | 富士写真フイルム株式会社 | 立体画像記録方法および立体画像記録装置 |
US6002829A (en) | 1992-03-23 | 1999-12-14 | Minnesota Mining And Manufacturing Company | Luminaire device |
US5528720A (en) | 1992-03-23 | 1996-06-18 | Minnesota Mining And Manufacturing Co. | Tapered multilayer luminaire devices |
JPH05289208A (ja) | 1992-04-15 | 1993-11-05 | Fuji Photo Film Co Ltd | 立体画像記録方法および立体画像記録装置 |
US5459592A (en) | 1992-04-24 | 1995-10-17 | Sharp Kabushiki Kaisha | Projection display system including a collimating tapered waveguide or lens with the normal to optical axis angle increasing toward the lens center |
US5278608A (en) | 1992-05-19 | 1994-01-11 | Eastman Kodak Company | Electronically printed depth photography system with improved viewing range |
US5347644A (en) | 1992-06-11 | 1994-09-13 | Sedlmayr Steven R | Three-dimensional image display device and systems and methods for implementation thereof |
US5903388A (en) | 1992-06-11 | 1999-05-11 | Sedlmayr Steven R | High efficiency electromagnetic beam projector and systems and method for implementation thereof |
CA2143617C (en) | 1992-09-09 | 2004-02-17 | Jesse B. Eichenlaub | Stroboscopic illumination system for video displays |
US5896225A (en) | 1993-05-24 | 1999-04-20 | Deutsche Thomson Brandt Gmbh | Device for stereoscopic image observation within an increased observation area |
US5796451A (en) | 1993-10-23 | 1998-08-18 | Samsung Display Devices Co., Ltd. | Liquid crystal cell with an external color filter |
GB2284068A (en) | 1993-11-12 | 1995-05-24 | Sharp Kk | Three-dimensional projection display apparatus |
US5581402A (en) | 1993-11-22 | 1996-12-03 | Eastman Kodak Company | Method for producing an improved stereoscopic picture and stereoscopic picture obtained according to this method |
EP1209508B1 (en) | 1993-12-01 | 2004-10-27 | Sharp Kabushiki Kaisha | Display for 3D images |
GB2294350A (en) | 1994-10-21 | 1996-04-24 | Sharp Kk | Light source and display |
CA2178325A1 (en) | 1993-12-21 | 1995-06-29 | Andrew J. Ouderkirk | Reflective polarizer with brightness enhancement |
JPH09508476A (ja) | 1994-01-31 | 1997-08-26 | エス・ディー・エル・インコーポレイテッド | レーザ照明ディスプレイシステム |
US5510831A (en) | 1994-02-10 | 1996-04-23 | Vision Iii Imaging, Inc. | Autostereoscopic imaging apparatus and method using suit scanning of parallax images |
US5588526A (en) | 1994-04-01 | 1996-12-31 | Insight, Inc. | Flat box system with multiple view optics |
EP0760962B1 (en) | 1994-04-11 | 2002-10-02 | Minnesota Mining And Manufacturing Company | Tapered multilayer luminaire device |
US5933276A (en) | 1994-04-13 | 1999-08-03 | Board Of Trustees, University Of Arkansas, N.A. | Aberration-free directional image window sheet |
JPH0870475A (ja) | 1994-06-23 | 1996-03-12 | Sanyo Electric Co Ltd | 立体動画像の符号化・復号化方法及び装置 |
US5575549A (en) | 1994-08-12 | 1996-11-19 | Enplas Corporation | Surface light source device |
US6184969B1 (en) | 1994-10-25 | 2001-02-06 | James L. Fergason | Optical display system and method, active and passive dithering using birefringence, color image superpositioning and display enhancement |
GB2296617A (en) | 1994-12-29 | 1996-07-03 | Sharp Kk | Observer tracking autosteroscopic display |
JPH08254617A (ja) | 1995-01-30 | 1996-10-01 | Hoshi Seisakusho:Kk | 面発光装置 |
GB2297876A (en) | 1995-02-09 | 1996-08-14 | Sharp Kk | Observer tracking autostereoscopic display |
JP3459721B2 (ja) | 1995-05-22 | 2003-10-27 | キヤノン株式会社 | 立体画像表示方法及びそれを用いた立体画像表示装置 |
JP3516774B2 (ja) | 1995-06-14 | 2004-04-05 | 三菱電機株式会社 | 立体映像表示装置 |
JPH0915532A (ja) | 1995-06-29 | 1997-01-17 | Canon Inc | 立体画像表示方法及びそれを用いた立体画像表示装置 |
US6023315A (en) | 1995-07-04 | 2000-02-08 | Sharp Kabushiki Kaisha | Spatial light modulator and directional display |
GB9513658D0 (en) | 1995-07-05 | 1995-09-06 | Philips Electronics Uk Ltd | Autostereoscopic display apparatus |
JP3286138B2 (ja) | 1995-08-03 | 2002-05-27 | 日東電工株式会社 | 導光板、面光源装置、偏光光源装置及び液晶表示装置 |
US6061179A (en) | 1996-01-23 | 2000-05-09 | Canon Kabushiki Kaisha | Stereoscopic image display apparatus with two-/three-dimensional image display switching function |
EP0788008B1 (en) | 1996-01-31 | 2006-04-26 | Canon Kabushiki Kaisha | Stereoscopic image display apparatus whose observation area is widened |
US6064424A (en) | 1996-02-23 | 2000-05-16 | U.S. Philips Corporation | Autostereoscopic display apparatus |
TW413993B (en) | 1996-03-15 | 2000-12-01 | Sharp Kk | Image display device |
IT1285368B1 (it) | 1996-05-27 | 1998-06-03 | Fiat Ricerche | Dispositivo a microfiltri e microchopper per la selezione dinamica di colori ed immagini. |
JP2865618B2 (ja) | 1996-05-31 | 1999-03-08 | 嶋田プレシジョン株式会社 | 導光板および導光板アセンブリ |
GB2320156A (en) | 1996-12-07 | 1998-06-10 | Sharp Kk | Directional display and method of making a mask for a directional display |
GB9618593D0 (en) | 1996-09-06 | 1996-10-16 | Central Research Lab Ltd | Apparatus for displaying an image |
GB2321815A (en) | 1997-02-04 | 1998-08-05 | Sharp Kk | Autostereoscopic display with viewer position indicator |
GB2317291A (en) | 1996-09-12 | 1998-03-18 | Sharp Kk | Observer tracking directional display |
DE19638081A1 (de) | 1996-09-19 | 1998-03-26 | Hella Kg Hueck & Co | Leuchte für Fahrzeuge |
GB2317710A (en) | 1996-09-27 | 1998-04-01 | Sharp Kk | Spatial light modulator and directional display |
GB2317771A (en) | 1996-09-27 | 1998-04-01 | Sharp Kk | Observer tracking directional display |
US5959702A (en) | 1996-10-04 | 1999-09-28 | Goodman; John Mott | Lensless video projector |
JP3397602B2 (ja) | 1996-11-11 | 2003-04-21 | 富士通株式会社 | 画像表示装置及び方法 |
GB9623682D0 (en) | 1996-11-14 | 1997-01-08 | Philips Electronics Nv | Autostereoscopic display apparatus |
US6219113B1 (en) | 1996-12-17 | 2001-04-17 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for driving an active matrix display panel |
US5771066A (en) | 1997-01-03 | 1998-06-23 | Barnea; Daniel I. | Three dimensional display device |
JP3441911B2 (ja) | 1997-02-20 | 2003-09-02 | キヤノン株式会社 | 情報処理装置及び方法 |
US6283858B1 (en) | 1997-02-25 | 2001-09-04 | Bgk International Incorporated | Method for manipulating images |
EP0970589B1 (en) | 1997-03-27 | 2004-08-11 | Litton Systems, Inc. | Autostereoscopic projection system |
GB2324428A (en) | 1997-04-17 | 1998-10-21 | Sharp Kk | Image tracking; observer tracking stereoscopic display |
EP1103840B1 (en) | 1997-06-12 | 2008-08-13 | Sharp Kabushiki Kaisha | Vertically-aligned (va) liquid crystal display device |
GB9715397D0 (en) | 1997-07-23 | 1997-09-24 | Philips Electronics Nv | Lenticular screen adaptor |
DE19737449A1 (de) | 1997-08-22 | 1999-02-25 | Hertz Inst Heinrich | Vorrichtung zum Nachführen eines autostereoskopischen Flachbildschirms |
JP3199313B2 (ja) | 1997-11-10 | 2001-08-20 | キヤノン株式会社 | 反射型液晶表示装置及びそれを用いた投射型液晶表示装置 |
US6295109B1 (en) | 1997-12-26 | 2001-09-25 | Sharp Kabushiki Kaisha | LCD with plurality of pixels having reflective and transmissive regions |
US7239293B2 (en) | 1998-01-21 | 2007-07-03 | New York University | Autostereoscopic display |
JP3642381B2 (ja) | 1998-02-26 | 2005-04-27 | 日東電工株式会社 | 導光板、面光源装置及び反射型液晶表示装置 |
JPH11259007A (ja) | 1998-03-10 | 1999-09-24 | Sony Corp | 反射型表示装置 |
US20040108971A1 (en) | 1998-04-09 | 2004-06-10 | Digilens, Inc. | Method of and apparatus for viewing an image |
DE69910757T2 (de) * | 1998-04-13 | 2004-06-17 | Eyematic Interfaces, Inc., Santa Monica | Wavelet-basierte gesichtsbewegungserfassung für avataranimation |
JP2002512976A (ja) | 1998-04-27 | 2002-05-08 | プレーシス ファーマスーティカルズ インコーポレイテッド | のぼせおよび女性化乳房を処置するための方法 |
US7116323B2 (en) | 1998-05-27 | 2006-10-03 | In-Three, Inc. | Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images |
DE19827590C2 (de) | 1998-06-20 | 2001-05-03 | Christoph Grosmann | Verfahren und Vorrichtung zur Autostereoskopie |
JP3862422B2 (ja) | 1998-07-10 | 2006-12-27 | キヤノン株式会社 | 画像読取装置 |
JP2000048618A (ja) | 1998-07-29 | 2000-02-18 | Casio Comput Co Ltd | 照明パネルおよびそれを用いた表示装置 |
US6456340B1 (en) | 1998-08-12 | 2002-09-24 | Pixonics, Llc | Apparatus and method for performing image transforms in a digital display system |
US6144118A (en) | 1998-09-18 | 2000-11-07 | General Scanning, Inc. | High-speed precision positioning apparatus |
US6476850B1 (en) | 1998-10-09 | 2002-11-05 | Kenneth Erbey | Apparatus for the generation of a stereoscopic display |
US6816158B1 (en) | 1998-10-30 | 2004-11-09 | Lemelson Jerome H | Three-dimensional display system |
JP2000200049A (ja) | 1998-11-02 | 2000-07-18 | Sony Corp | 反射型表示装置 |
US6642984B1 (en) | 1998-12-08 | 2003-11-04 | Fujitsu Display Technologies Corporation | Liquid crystal display apparatus having wide transparent electrode and stripe electrodes |
GB9828287D0 (en) | 1998-12-23 | 1999-02-17 | Secr Defence Brit | Image display system |
US6256447B1 (en) | 1998-12-31 | 2001-07-03 | Physical Optics Corporation | Backlight for correcting diagonal line distortion |
JP2000231339A (ja) | 1999-02-10 | 2000-08-22 | Dainippon Printing Co Ltd | 表示装置 |
US7088333B1 (en) | 1999-03-12 | 2006-08-08 | Matsushita Electric Industrial Co., Ltd. | Surface lighting device and portable terminal using the same |
DE69934478T2 (de) | 1999-03-19 | 2007-09-27 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Verfahren und Gerät zur Bildverarbeitung auf Basis von Metamorphosemodellen |
US6464365B1 (en) | 1999-07-23 | 2002-10-15 | Bae Systems Information And Electronic Systems Integration Inc. | Light collimator for liquid crystal displays |
US6305813B1 (en) | 1999-08-11 | 2001-10-23 | North American Lighting, Inc. | Display device using a light guide for exterior automotive lighting |
GB2354389A (en) | 1999-09-15 | 2001-03-21 | Sharp Kk | Stereo images with comfortable perceived depth |
US6859240B1 (en) | 2000-01-27 | 2005-02-22 | Mems Optical Inc. | Autostereoscopic display |
JP4262368B2 (ja) | 1999-09-22 | 2009-05-13 | 株式会社日立製作所 | 照明装置、及びこれを用いた表示装置 |
CA2384825C (en) | 1999-10-08 | 2006-05-30 | 3M Innovative Properties Company | Display illumination device and method of enhancing brightness in a display illumination device |
JP3457591B2 (ja) | 1999-10-08 | 2003-10-20 | インターナショナル・ビジネス・マシーンズ・コーポレーション | 液晶表示装置 |
KR100307854B1 (ko) | 1999-11-10 | 2001-11-02 | 전병우 | 단일카메라를 이용한 시선 맞춤 보정 방법 및 그 장치 |
US6975755B1 (en) * | 1999-11-25 | 2005-12-13 | Canon Kabushiki Kaisha | Image processing method and apparatus |
GB0003311D0 (en) | 2000-02-15 | 2000-04-05 | Koninkl Philips Electronics Nv | Autostereoscopic display driver |
US6347874B1 (en) | 2000-02-16 | 2002-02-19 | 3M Innovative Properties Company | Wedge light extractor with risers |
HU0000752D0 (en) | 2000-02-21 | 2000-04-28 | Pixel element for three-dimensional screen | |
US7657083B2 (en) * | 2000-03-08 | 2010-02-02 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
AU2001245720A1 (en) | 2000-03-15 | 2001-09-24 | Arc International Plc | Method and apparatus for processor code optimization using code compression |
CA2403094C (en) | 2000-03-17 | 2011-07-12 | Zograph, Llc | High acuity lens system |
US6806898B1 (en) | 2000-03-20 | 2004-10-19 | Microsoft Corp. | System and method for automatically adjusting gaze and head orientation for video conferencing |
US6847354B2 (en) | 2000-03-23 | 2005-01-25 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Three dimensional interactive display |
JP3968742B2 (ja) | 2000-03-30 | 2007-08-29 | 株式会社エンプラス | 導光板、面光源装置及び表示装置 |
US6975455B1 (en) | 2000-04-18 | 2005-12-13 | 3M Innovative Properties Company | Transflective layer for displays |
JP4412441B2 (ja) | 2000-07-11 | 2010-02-10 | 日本電気株式会社 | 液晶表示装置 |
JP3554257B2 (ja) | 2000-07-31 | 2004-08-18 | キヤノン株式会社 | 表示制御装置及び方法 |
US6373637B1 (en) | 2000-09-13 | 2002-04-16 | Eastman Kodak Company | Diagonal lenticular image system |
GB0024112D0 (en) | 2000-10-03 | 2000-11-15 | Cambridge 3D Display Ltd | Flat panel display |
US6422713B1 (en) | 2000-10-17 | 2002-07-23 | Ford Global Technologies, Inc. | Thin-sheet collimation optics for diode laser illumination systems for use in night vision and exterior lighting applications |
GB0028800D0 (en) | 2000-11-25 | 2001-01-10 | Cambridge 3D Display Ltd | Achromatic flat panel display |
GB0029340D0 (en) | 2000-11-30 | 2001-01-17 | Cambridge 3D Display Ltd | Flat panel camera |
AU2002217579A1 (en) | 2000-12-18 | 2002-07-01 | Byoungho Lee | Relfecting three-dimensional display system |
US6891200B2 (en) | 2001-01-25 | 2005-05-10 | Matsushita Electric Industrial Co., Ltd. | Light-emitting unit, light-emitting unit assembly, and lighting apparatus produced using a plurality of light-emitting units |
GB0108838D0 (en) | 2001-04-07 | 2001-05-30 | Cambridge 3D Display Ltd | Far field display |
US7001058B2 (en) | 2001-05-16 | 2006-02-21 | Ben-Zion Inditsky | Ultra-thin backlight |
EP1397610B1 (en) | 2001-06-01 | 2007-12-12 | Philips Lumileds Lighting Company LLC | Compact illumination system and display device |
EP1412803A2 (en) | 2001-07-13 | 2004-04-28 | Mems Optical, Inc. | Autostereoscopic display with rotated microlens-array and method of displaying multidimensional images, especially color images |
GB0118866D0 (en) | 2001-08-02 | 2001-09-26 | Cambridge 3D Display Ltd | Shaped taper flat panel display |
GB0119176D0 (en) | 2001-08-06 | 2001-09-26 | Ocuity Ltd | Optical switching apparatus |
US7190825B2 (en) | 2001-08-17 | 2007-03-13 | Geo-Rae Co., Ltd. | Portable communication device for stereoscopic image display and transmission |
IL160902A0 (en) | 2001-09-25 | 2004-08-31 | Cambridge Flat Projection | Flat-panel projection display |
KR100403599B1 (ko) | 2001-11-06 | 2003-10-30 | 삼성전자주식회사 | 조명계 및 이를 채용한 프로젝션 시스템 |
US7365908B2 (en) | 2001-11-08 | 2008-04-29 | Eugene Dolgoff | Tiling of panels for multiple-image displays |
TW594119B (en) | 2001-12-21 | 2004-06-21 | Au Optronics Corp | Backlight module for thin film transistor liquid crystal display |
JP2003207743A (ja) | 2002-01-16 | 2003-07-25 | Olympus Optical Co Ltd | 立体観察装置 |
JP4174216B2 (ja) | 2002-01-18 | 2008-10-29 | フジノン株式会社 | バリア層を有する光学素子、光学系および投映プロジェクタ装置 |
JP3980890B2 (ja) | 2002-01-23 | 2007-09-26 | シャープ株式会社 | 導光板並びにそれを備えた光源装置及び表示装置 |
US7153017B2 (en) | 2002-01-31 | 2006-12-26 | Mitsubishi Rayon Co., Ltd. | Light deflection element and light source apparatus using the same |
US7256881B2 (en) | 2002-02-15 | 2007-08-14 | Coopervision, Inc. | Systems and methods for inspection of ophthalmic lenses |
JP2003262734A (ja) | 2002-03-08 | 2003-09-19 | Citizen Electronics Co Ltd | 導光板 |
JP4348457B2 (ja) | 2002-03-13 | 2009-10-21 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 高ダイナミックレンジのディスプレイ、ディスプレイコントローラ及び画像表示方法 |
JP3867597B2 (ja) | 2002-03-19 | 2007-01-10 | セイコーエプソン株式会社 | 電気光学装置並びに電子機器及び投射型表示装置 |
CN1306295C (zh) | 2002-03-28 | 2007-03-21 | 皇家飞利浦电子股份有限公司 | 紧凑型照明系统及显示器件 |
US6771303B2 (en) * | 2002-04-23 | 2004-08-03 | Microsoft Corporation | Video-teleconferencing system with eye-gaze correction |
US7515173B2 (en) * | 2002-05-23 | 2009-04-07 | Microsoft Corporation | Head pose tracking system |
US20040046709A1 (en) | 2002-09-05 | 2004-03-11 | Kazutora Yoshino | 3 Dimensional image projector and holodeck |
KR100513718B1 (ko) | 2002-06-20 | 2005-09-07 | 삼성전자주식회사 | 평판표시소자용 조명장치 |
US8100552B2 (en) | 2002-07-12 | 2012-01-24 | Yechezkal Evan Spero | Multiple light-source illuminating system |
US9955551B2 (en) | 2002-07-12 | 2018-04-24 | Yechezkal Evan Spero | Detector controlled illuminating system |
US6919892B1 (en) | 2002-08-14 | 2005-07-19 | Avaworks, Incorporated | Photo realistic talking head creation system and method |
JP3969252B2 (ja) | 2002-08-27 | 2007-09-05 | 日本電気株式会社 | 立体画像平面画像切換表示装置及び携帯端末装置 |
JP2004095390A (ja) | 2002-08-30 | 2004-03-25 | Fujitsu Display Technologies Corp | 照明装置及び表示装置 |
GB2393344A (en) | 2002-09-17 | 2004-03-24 | Sharp Kk | Autostereoscopic display |
JP3930021B2 (ja) | 2002-09-19 | 2007-06-13 | 三菱電機株式会社 | 表示装置および表示装置を備えた電子機器 |
JP4398141B2 (ja) | 2002-10-31 | 2010-01-13 | パイオニア株式会社 | 表示装置及び方法 |
KR100499133B1 (ko) | 2002-11-04 | 2005-07-04 | 삼성전자주식회사 | 백라이트 유닛 |
US20040263969A1 (en) | 2002-11-25 | 2004-12-30 | Lenny Lipton | Lenticular antireflection display |
US6811274B2 (en) | 2002-12-04 | 2004-11-02 | General Electric Company | Polarization sensitive optical substrate |
US7125131B2 (en) | 2002-12-06 | 2006-10-24 | General Electric Company | Brightness enhancement film with improved view angle |
EP1597907A2 (en) | 2003-02-21 | 2005-11-23 | Koninklijke Philips Electronics N.V. | Autostereoscopic display |
JP4143444B2 (ja) | 2003-03-07 | 2008-09-03 | キヤノン株式会社 | 照明光学系 |
JP3961973B2 (ja) | 2003-03-14 | 2007-08-22 | 富士通株式会社 | Otdrによる測定方法及び端局装置 |
EP1614299A1 (en) | 2003-04-16 | 2006-01-11 | Upstream Engineering Oy | 2d/3d data projector |
JP2004319364A (ja) | 2003-04-18 | 2004-11-11 | Alps Electric Co Ltd | 照明装置および液晶表示装置 |
US7245430B2 (en) | 2003-04-21 | 2007-07-17 | Ricoh Company, Ltd. | Method and apparatus for displaying three-dimensional stereo image using light deflector |
IL155525A0 (en) * | 2003-04-21 | 2009-02-11 | Yaron Mayer | System and method for 3d photography and/or analysis of 3d images and/or display of 3d images |
US7976169B2 (en) | 2003-05-14 | 2011-07-12 | Sun Innovations, Inc. | Waveguide display |
GB0313044D0 (en) | 2003-06-06 | 2003-07-09 | Cambridge Flat Projection | Flat panel scanning illuminator |
US8254674B2 (en) | 2004-10-28 | 2012-08-28 | DigitalOptics Corporation Europe Limited | Analyzing partial face regions for red-eye detection in acquired digital images |
GB2403814A (en) | 2003-07-10 | 2005-01-12 | Ocuity Ltd | Directional display apparatus with birefringent lens structure |
GB2403815A (en) | 2003-07-10 | 2005-01-12 | Ocuity Ltd | Birefringent lens array structure |
JP4060332B2 (ja) | 2003-07-23 | 2008-03-12 | シャープ株式会社 | 液晶表示装置 |
JP4727629B2 (ja) | 2003-07-23 | 2011-07-20 | シャープ株式会社 | 液晶表示装置 |
GB2405542A (en) | 2003-08-30 | 2005-03-02 | Sharp Kk | Multiple view directional display having display layer and parallax optic sandwiched between substrates. |
KR20060065731A (ko) | 2003-09-22 | 2006-06-14 | 진 돌고프 | 전방향 렌티큘라와 배리어-그리드 영상 디스플레이 및 그제조방법 |
GB2406730A (en) | 2003-09-30 | 2005-04-06 | Ocuity Ltd | Directional display. |
JP4411923B2 (ja) | 2003-10-06 | 2010-02-10 | セイコーエプソン株式会社 | 照明装置、表示装置及びプロジェクタ |
JP2005135844A (ja) | 2003-10-31 | 2005-05-26 | Sony Corp | 光学素子及びバックライト装置 |
IL165376A0 (en) | 2003-12-02 | 2006-01-15 | Electro Optics Ind Ltd | Vehicle display system |
JP2005183030A (ja) | 2003-12-16 | 2005-07-07 | Seiko Epson Corp | 導光板及び照明装置 |
US7052168B2 (en) | 2003-12-17 | 2006-05-30 | 3M Innovative Properties Company | Illumination device |
DE10359403B4 (de) | 2003-12-18 | 2005-12-15 | Seereal Technologies Gmbh | Autostereoskopisches Multi-User-Display |
JP4408368B2 (ja) | 2003-12-24 | 2010-02-03 | 株式会社 日立ディスプレイズ | 表示装置および表示方法およびこれらを用いる機器 |
CN1910399B (zh) | 2004-01-15 | 2013-05-15 | 日立化成株式会社 | 反射器以及背光装置 |
GB2410116A (en) | 2004-01-17 | 2005-07-20 | Sharp Kk | Illumination system and display device |
JP4845893B2 (ja) | 2004-01-20 | 2011-12-28 | シャープ株式会社 | 方向性バックライトおよびマルチビューディスプレイデバイス |
US20070019882A1 (en) | 2004-01-30 | 2007-01-25 | Shoji Tanaka | Makeup simulation program, makeup simulation device, and makeup simulation method |
US7300177B2 (en) | 2004-02-11 | 2007-11-27 | 3M Innovative Properties | Illumination system having a plurality of light source modules disposed in an array with a non-radially symmetrical aperture |
KR100822520B1 (ko) | 2004-02-13 | 2008-04-16 | 미쓰비시덴키 가부시키가이샤 | 액정 표시 장치 및 정보 기기 |
US7826668B1 (en) | 2004-02-17 | 2010-11-02 | Corel Corporation | Adaptive region editing tool |
US8094927B2 (en) | 2004-02-27 | 2012-01-10 | Eastman Kodak Company | Stereoscopic display system with flexible rendering of disparity map according to the stereoscopic fusing capability of the observer |
US6962415B2 (en) | 2004-02-27 | 2005-11-08 | Honeywell International Inc. | Electro-optical dimming system |
JP4394977B2 (ja) | 2004-03-09 | 2010-01-06 | 五洋紙工株式会社 | 面光源装置 |
US7375886B2 (en) | 2004-04-19 | 2008-05-20 | Stereographics Corporation | Method and apparatus for optimizing the viewing distance of a lenticular stereogram |
JP4616577B2 (ja) | 2004-04-22 | 2011-01-19 | 株式会社日立製作所 | 映像表示装置 |
JP2005321693A (ja) | 2004-05-11 | 2005-11-17 | Hitachi Displays Ltd | 液晶表示装置 |
GB2414127A (en) | 2004-05-12 | 2005-11-16 | Sharp Kk | Time sequential colour projection |
US7463775B1 (en) | 2004-05-18 | 2008-12-09 | Adobe Systems Incorporated | Estimating compressed storage size of digital data |
TWI254166B (en) | 2004-05-25 | 2006-05-01 | Au Optronics Corp | 3D display system and method |
US7064353B2 (en) | 2004-05-26 | 2006-06-20 | Philips Lumileds Lighting Company, Llc | LED chip with integrated fast switching diode for ESD protection |
JP4367258B2 (ja) | 2004-06-18 | 2009-11-18 | 日本電気株式会社 | 入出力装置及び端末装置 |
AU2005278003B8 (en) | 2004-06-21 | 2011-06-23 | Google Llc | Single image based multi-biometric system and method |
JP2006004877A (ja) | 2004-06-21 | 2006-01-05 | Nippon Leiz Co Ltd | 導光板および平面照明装置 |
JP3908241B2 (ja) | 2004-06-24 | 2007-04-25 | オリンパス株式会社 | 映像表示装置 |
US7204631B2 (en) | 2004-06-30 | 2007-04-17 | 3M Innovative Properties Company | Phosphor based illumination system having a plurality of light guides and an interference reflector |
JP2006031941A (ja) | 2004-07-12 | 2006-02-02 | Sharp Corp | 面状光源ユニット |
US7088488B2 (en) | 2004-07-13 | 2006-08-08 | Imation Corp. | Spatial light modulator device with diffusive element |
US7215391B2 (en) | 2004-07-16 | 2007-05-08 | United Microelectronics Corp. | Liquid crystal on silicon display with micro color filters positioned on the top surface of the transparent substrate |
WO2006031545A1 (en) | 2004-09-09 | 2006-03-23 | Fusion Optix, Inc. | Enhanced lcd backlight |
US20080128728A1 (en) | 2004-09-10 | 2008-06-05 | Luminus Devices, Inc. | Polarized light-emitting devices and methods |
US7227567B1 (en) | 2004-09-14 | 2007-06-05 | Avaya Technology Corp. | Customizable background for video communications |
US8031273B2 (en) | 2004-09-17 | 2011-10-04 | Sharp Kabushiki Kaisha | Display device, viewing angle control device, and electronic device |
GB2418315A (en) | 2004-09-21 | 2006-03-22 | Sharp Kk | Multiple view display |
JP4186918B2 (ja) | 2004-12-01 | 2008-11-26 | セイコーエプソン株式会社 | 画像表示装置 |
DE102004059729B3 (de) | 2004-12-11 | 2006-04-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Verfahren zur autostereoskopischen Erzeugung von dreidimensionalen Bildinformationen aus gerasterten Subpixelauszügen und Anordnung zur Verfahrensdurchführung |
DE102004063838A1 (de) | 2004-12-23 | 2006-07-06 | Seereal Technologies Gmbh | Verfahren und Einrichtung zum Berechnen computer generierter Videohologramme |
US20060139447A1 (en) | 2004-12-23 | 2006-06-29 | Unkrich Mark A | Eye detection system and method for control of a three-dimensional display |
GB0502453D0 (en) | 2005-02-05 | 2005-03-16 | Cambridge Flat Projection | Flat panel lens |
US7355800B2 (en) | 2005-02-07 | 2008-04-08 | Coherent, Inc. | Apparatus for projecting a line of light from a diode-laser array |
WO2006097897A1 (en) | 2005-03-17 | 2006-09-21 | Koninklijke Philips Electronics N.V. | Autostereoscopic display apparatus and colour filter therefor |
JP4600317B2 (ja) | 2005-03-31 | 2010-12-15 | カシオ計算機株式会社 | 指向性を持った少なくとも2つの照明光を出射する照明装置及びそれを用いた表示装置 |
US20070115551A1 (en) | 2005-04-01 | 2007-05-24 | Alexis Spilman | Space-variant waveplate for polarization conversion, methods and applications |
JP5090337B2 (ja) | 2005-04-08 | 2012-12-05 | リアルディー インコーポレイテッド | 平面パススルーを有する自動立体ディスプレイ |
US7430358B2 (en) | 2005-04-20 | 2008-09-30 | Wavefront Technology, Inc. | Elliptical diffusers used in displays |
US8675125B2 (en) | 2005-04-27 | 2014-03-18 | Parellel Consulting Limited Liability Company | Minimized-thickness angular scanner of electromagnetic radiation |
US7188953B2 (en) | 2005-05-03 | 2007-03-13 | Eastman Kodak Company | Display apparatus using LCD panel |
US7535607B2 (en) | 2005-05-06 | 2009-05-19 | Seereal Technologies S.A. | Device for holographic reconstruction of three-dimensional scenes |
GB2426351A (en) | 2005-05-19 | 2006-11-22 | Sharp Kk | A dual view display |
KR100650191B1 (ko) | 2005-05-31 | 2006-11-27 | 삼성전기주식회사 | 정전기 방전 충격에 대한 보호 기능이 내장된 고휘도 발광다이오드 |
TW200641416A (en) | 2005-05-31 | 2006-12-01 | Bright View Electronics Co Ltd | A lighting device providing longitudinal illumination |
US7404645B2 (en) | 2005-06-20 | 2008-07-29 | Digital Display Innovations, Llc | Image and light source modulation for a digital display system |
JP4741887B2 (ja) | 2005-06-24 | 2011-08-10 | Nec液晶テクノロジー株式会社 | 光源装置、表示装置及び端末装置 |
KR100813977B1 (ko) | 2005-07-08 | 2008-03-14 | 삼성전자주식회사 | 2차원/3차원 영상 호환용 고해상도 입체 영상 디스플레이장치 |
GB2428345A (en) | 2005-07-13 | 2007-01-24 | Sharp Kk | A display having multiple view and single view modes |
CN100376970C (zh) | 2005-07-20 | 2008-03-26 | 清华大学 | 导光板与背光模组 |
WO2007014371A2 (en) | 2005-07-28 | 2007-02-01 | Light Prescriptions Innovators, Llc | Etendue-conserving illumination-optics for backlights and frontlights |
KR101128519B1 (ko) | 2005-08-04 | 2012-03-27 | 삼성전자주식회사 | 고해상도 오토스테레오스코픽 디스플레이 |
CN1908753A (zh) | 2005-08-05 | 2007-02-07 | 鸿富锦精密工业(深圳)有限公司 | 偏振光转换器、其制造方法及背光模组 |
JP3872810B1 (ja) | 2005-08-12 | 2007-01-24 | シャープ株式会社 | 光源制御装置、照明装置及び液晶表示装置 |
WO2007027759A2 (en) | 2005-09-02 | 2007-03-08 | Colorlink, Inc. | Polarization beam splitter and combiner |
US7429035B2 (en) | 2005-09-29 | 2008-09-30 | Wprwmdm, L.L.C. | Equipment handling apparatus |
JP4626467B2 (ja) | 2005-09-29 | 2011-02-09 | カシオ計算機株式会社 | 液晶表示装置 |
US7663712B2 (en) | 2005-10-10 | 2010-02-16 | Skc Haas Display Films Co., Ltd. | Backlight unit with linearly reduced divergence having the width of an output aperture vary over the length of a light divergence reduction structure |
US7378686B2 (en) | 2005-10-18 | 2008-05-27 | Goldeneye, Inc. | Light emitting diode and side emitting lens |
JP2009521137A (ja) | 2005-11-14 | 2009-05-28 | リアルデー | 一体的交互嵌合を有するモニタ |
WO2007072263A2 (en) | 2005-12-21 | 2007-06-28 | Koninklijke Philips Electronics N.V. | Backlight arrangement |
KR20070071293A (ko) | 2005-12-29 | 2007-07-04 | 엘지.필립스 엘시디 주식회사 | 액정표시소자 및 그 제조방법 |
JP4215058B2 (ja) | 2006-01-19 | 2009-01-28 | エプソンイメージングデバイス株式会社 | 画像表示装置及び電子機器 |
US7528906B2 (en) | 2006-01-23 | 2009-05-05 | Real D | Achromatic polarization switches |
KR20080090961A (ko) | 2006-01-27 | 2008-10-09 | 가부시키가이샤 엔프라스 | 면광원 장치 및 표시 장치 |
KR20070080985A (ko) | 2006-02-09 | 2007-08-14 | 삼성전자주식회사 | 레이저 디스플레이 장치 |
US7593615B2 (en) | 2006-02-10 | 2009-09-22 | Rpc Photonics, Inc. | Optical devices for guiding illumination |
KR100813975B1 (ko) | 2006-02-27 | 2008-03-14 | 삼성전자주식회사 | 2차원/3차원 영상 호환용 고해상도 입체 영상 표시 장치 |
CN2872404Y (zh) | 2006-03-06 | 2007-02-21 | 胡国辉 | 高亮度导光板 |
US20070223252A1 (en) | 2006-03-24 | 2007-09-27 | Junwon Lee | Illumination apparatus and film |
KR100765075B1 (ko) | 2006-03-26 | 2007-10-09 | 엘지이노텍 주식회사 | 질화물 반도체 발광 소자 및 그 제조방법 |
JP4385031B2 (ja) | 2006-03-31 | 2009-12-16 | 日本ライツ株式会社 | 導光板および平面照明装置 |
JP2007279474A (ja) | 2006-04-10 | 2007-10-25 | Hitachi Displays Ltd | 液晶表示装置 |
US7751960B2 (en) | 2006-04-13 | 2010-07-06 | Gm Global Technology Operations, Inc. | Driver workload-based vehicle stability enhancement control |
US7524053B2 (en) | 2006-05-12 | 2009-04-28 | Real D | 3-D eyewear |
US7876489B2 (en) | 2006-06-05 | 2011-01-25 | Pixtronix, Inc. | Display apparatus with optical cavities |
US7646453B2 (en) | 2006-06-05 | 2010-01-12 | Skc Haas Display Films Co., Ltd. | Reflective polarizer with polarization splitting microstructure |
WO2008010593A1 (fr) | 2006-07-21 | 2008-01-24 | Fujifilm Corporation | Plaque de guidage de lumière unitaire, unité de plaque de guidage de lumière, dispositif d'éclairage plan et dispositif d'affichage à cristaux liquides |
KR100823274B1 (ko) | 2006-07-26 | 2008-04-17 | 삼성전자주식회사 | 조명장치 및 이를 채용한 디스플레이 장치 |
US7529416B2 (en) | 2006-08-18 | 2009-05-05 | Terayon Communication Systems, Inc. | Method and apparatus for transferring digital data between circuits |
CN101506573B (zh) | 2006-09-26 | 2011-01-12 | 松下电器产业株式会社 | 面状照明装置及使用该面状照明装置的液晶显示装置 |
GB0619366D0 (en) | 2006-10-02 | 2006-11-08 | Cambridge Flat Projection | Distortionless wedge projection |
JP4197716B2 (ja) | 2006-10-03 | 2008-12-17 | 株式会社東芝 | 立体映像表示装置 |
JP5243439B2 (ja) | 2006-10-06 | 2013-07-24 | スリーエム イノベイティブ プロパティズ カンパニー | 自動立体3dディスプレイ装置用のバックライトモジュール及びlcdデバイス用の走査式バックライト |
GB0620014D0 (en) | 2006-10-10 | 2006-11-22 | Cambridge Flat Projection | Prismatic film backlight |
JP5292812B2 (ja) | 2006-10-27 | 2013-09-18 | 東レ株式会社 | 光反射板用白色ポリエステルフィルム |
CN200983052Y (zh) | 2006-11-27 | 2007-11-28 | 比亚迪股份有限公司 | 一种用于立体液晶显示器的背光模组 |
EP2104873B1 (en) | 2006-12-29 | 2020-03-11 | Modilis Holdings LLC | Incoupling structure for lighting applications |
US8199152B2 (en) * | 2007-01-16 | 2012-06-12 | Lucasfilm Entertainment Company Ltd. | Combining multiple session content for animation libraries |
WO2008090643A1 (ja) | 2007-01-22 | 2008-07-31 | Sharp Kabushiki Kaisha | 光源モジュール及びバックライト光源 |
JP4974703B2 (ja) | 2007-02-21 | 2012-07-11 | 富士フイルム株式会社 | 面状照明装置 |
GB0704803D0 (en) | 2007-03-13 | 2007-04-18 | Cambridge Flat Projection | Structured colour illumination of lcd's |
JP4967731B2 (ja) | 2007-03-15 | 2012-07-04 | セイコーエプソン株式会社 | 画像表示装置及びそのための光学部材 |
US7798698B2 (en) | 2007-03-23 | 2010-09-21 | Victor Company Of Japan, Limited | Lighting device and display device |
US7806579B2 (en) | 2007-03-30 | 2010-10-05 | Honeywell International Inc. | Luminaire having a two-way waveguide |
RU2377623C2 (ru) | 2007-04-20 | 2009-12-27 | Василий Александрович ЕЖОВ | Способ наблюдения стереоизображений с полным разрешением для каждого ракурса и устройство для его реализации |
DE102008021721A1 (de) | 2007-05-08 | 2008-11-27 | Citizen Electronics Co., Ltd., Fujiyoshida-shi | Optisches Bauteil, Hintergrundbeleuchtungseinheit und Anzeigevorrichtung |
US7528893B2 (en) | 2007-05-18 | 2009-05-05 | 3M Innovative Properties Company | Backlight for liquid crystal display |
US8482685B2 (en) | 2007-06-05 | 2013-07-09 | Samsung Display Co., Ltd. | Liquid crystal display panel |
JP4902431B2 (ja) | 2007-06-07 | 2012-03-21 | 富士フイルム株式会社 | 面状照明装置 |
US20080316303A1 (en) | 2007-06-08 | 2008-12-25 | Joseph Chiu | Display Device |
US7618178B2 (en) | 2007-06-11 | 2009-11-17 | SKC Haas Display Films Co., Lt.d | Backlight containing formed birefringence reflective polarizer |
KR20090009436A (ko) | 2007-07-20 | 2009-01-23 | 엘지이노텍 주식회사 | 엘이디 백라이트 |
US8331615B2 (en) * | 2007-08-01 | 2012-12-11 | The Board Of Trustees Of The University Of Illinois | Match, expand, and filter technique for multi-view stereopsis |
KR100897804B1 (ko) | 2007-08-07 | 2009-05-15 | (주)비젼텍 | 패턴이 형성된 백라이트 유닛용 도광판 |
JP5248062B2 (ja) | 2007-08-24 | 2013-07-31 | 株式会社東芝 | 指向性バックライト、表示装置及び立体画像表示装置 |
US8087793B2 (en) | 2007-10-30 | 2012-01-03 | Edward Pakhchyan | Back-light assembly |
KR100932304B1 (ko) | 2007-10-30 | 2009-12-16 | 제일모직주식회사 | 배면에 비대칭 프리즘을 구비하는 백라이트 유닛용 도광판및 이를 이용한 액정표시장치 |
US7791683B2 (en) | 2007-11-19 | 2010-09-07 | Honeywell International Inc. | Backlight systems for liquid crystal displays |
US8144153B1 (en) * | 2007-11-20 | 2012-03-27 | Lucasfilm Entertainment Company Ltd. | Model production for animation libraries |
JP4996433B2 (ja) | 2007-11-27 | 2012-08-08 | ミネベア株式会社 | 面状照明装置 |
US8842064B2 (en) | 2007-12-20 | 2014-09-23 | Reald Inc. | Intra-pixel illumination system |
US20090168459A1 (en) | 2007-12-27 | 2009-07-02 | Qualcomm Incorporated | Light guide including conjugate film |
KR101421626B1 (ko) | 2008-01-09 | 2014-07-22 | 삼성디스플레이 주식회사 | 광원 유닛, 이를 구비하는 백라이트 유닛 및 액정 표시장치 |
EP2233823B1 (en) | 2008-01-23 | 2018-11-21 | Panasonic Intellectual Property Management Co., Ltd. | Wavelength separator, planar illumination device and liquid crystal display device using the wavelength separator |
JP4902566B2 (ja) | 2008-02-15 | 2012-03-21 | シャープ株式会社 | 面状照明装置および表示装置 |
US20090231356A1 (en) | 2008-03-17 | 2009-09-17 | Photometria, Inc. | Graphical user interface for selection of options from option groups and methods relating to same |
US7750982B2 (en) | 2008-03-19 | 2010-07-06 | 3M Innovative Properties Company | Autostereoscopic display with fresnel lens element and double sided prism film adjacent a backlight having a light transmission surface with left and right eye light sources at opposing ends modulated at a rate of at least 90 hz |
US8106910B2 (en) | 2008-03-28 | 2012-01-31 | Vldimir Pugach | Method for correct reproduction of moving spatial images on a flat screen |
KR20110009093A (ko) | 2008-04-03 | 2011-01-27 | 스미또모 가가꾸 가부시키가이샤 | 액정 표시 장치 |
US8239893B2 (en) | 2008-05-12 | 2012-08-07 | Microsoft Corporation | Custom channels |
WO2009147877A1 (ja) | 2008-06-04 | 2009-12-10 | シャープ株式会社 | 導光体、照明装置、および液晶表示装置 |
US8068187B2 (en) | 2008-06-18 | 2011-11-29 | 3M Innovative Properties Company | Stereoscopic 3D liquid crystal display apparatus having a double sided prism film comprising cylindrical lenses and non-contiguous prisms |
US9253416B2 (en) | 2008-06-19 | 2016-02-02 | Motorola Solutions, Inc. | Modulation of background substitution based on camera attitude and motion |
JP4525808B2 (ja) | 2008-07-28 | 2010-08-18 | ソニー株式会社 | 立体画像表示装置およびその製造方法 |
US8625881B2 (en) | 2008-08-15 | 2014-01-07 | Reald Inc. | Enhanced ghost compensation for stereoscopic imagery |
KR101287636B1 (ko) | 2008-08-25 | 2013-07-24 | 엘지디스플레이 주식회사 | 백라이트 유닛 및 이를 구비한 액정표시장치 |
US8223296B2 (en) | 2008-08-25 | 2012-07-17 | Lg Display Co. Ltd. | Backlight unit and liquid crystal display device having the same |
KR101450146B1 (ko) | 2008-09-02 | 2014-10-14 | 삼성디스플레이 주식회사 | 백라이트 어셈블리 및 이를 포함하는 표시 장치 |
US7660047B1 (en) | 2008-09-03 | 2010-02-09 | Microsoft Corporation | Flat panel lens |
WO2010040146A1 (en) | 2008-10-03 | 2010-04-08 | Real D | Optimal depth mapping |
JP5567021B2 (ja) | 2008-10-07 | 2014-08-06 | ユークリッド・ディスカバリーズ・エルエルシー | 特徴を基礎とするビデオ圧縮 |
EP2351377A1 (en) | 2008-10-21 | 2011-08-03 | Koninklijke Philips Electronics N.V. | Method and system for processing an input three dimensional video signal |
US8482654B2 (en) | 2008-10-24 | 2013-07-09 | Reald Inc. | Stereoscopic image format with depth information |
KR101314836B1 (ko) | 2008-10-27 | 2013-10-04 | 니폰덴신뎅와 가부시키가이샤 | 화소 예측치 생성 순서 자동 생성 방법, 화상 부호화 방법, 화상 복호 방법, 그 장치, 그 프로그램 및 그 프로그램을 기록한 기록 매체 |
US7798699B2 (en) | 2008-11-10 | 2010-09-21 | Nokia Corporation | Layered light guide with diffractive structures |
TWI396873B (zh) | 2008-12-31 | 2013-05-21 | Nat Univ Tsing Hua | 一種微結構偏極化之導光裝置 |
US20110043501A1 (en) | 2009-01-15 | 2011-02-24 | Tyler Jon Daniel | Material Simulation Device |
US8152349B2 (en) | 2009-01-15 | 2012-04-10 | Microsoft Corporation | End reflector for a flat panel lens |
JP2010164914A (ja) | 2009-01-19 | 2010-07-29 | Hitachi Displays Ltd | 液晶表示装置 |
US8026997B2 (en) | 2009-01-28 | 2011-09-27 | Sharp Laboratories Of America, Inc. | Area active backlight with steerable light source |
KR20100092152A (ko) | 2009-02-12 | 2010-08-20 | 엘지이노텍 주식회사 | 백라이트 유닛 |
KR101333439B1 (ko) | 2009-02-17 | 2013-12-02 | 샤프 가부시키가이샤 | 도광체, 면 광원 장치 및 액정 표시 장치 |
DE102009010538B4 (de) | 2009-02-25 | 2022-02-03 | tooz technologies GmbH | Multifunktionsglas mit einer optisch wirksamen Fläche, die zumindest teilweise eine Fresnel-Struktur mit mehreren Fresnel-Segmenten aufweist, sowie Verfahren zur Herstellung eines solchen optischen Multifunktionsglases |
US20100214135A1 (en) | 2009-02-26 | 2010-08-26 | Microsoft Corporation | Dynamic rear-projected user interface |
JP5143770B2 (ja) | 2009-03-02 | 2013-02-13 | 株式会社ジャパンディスプレイイースト | 液晶表示装置 |
US20100231498A1 (en) | 2009-03-13 | 2010-09-16 | Microsoft Corporation | Image display via multiple light guide sections |
ES2880475T3 (es) | 2009-04-01 | 2021-11-24 | Tobii Ab | Sistema de representación visual con iluminadores para el seguimiento de la mirada |
WO2010118292A1 (en) | 2009-04-09 | 2010-10-14 | Dynavox Systems, Llc | Calibration free, motion tolerant eye-gaze direction detector with contextually aware computer interaction and communication methods |
WO2010124028A2 (en) | 2009-04-21 | 2010-10-28 | Vasylyev Sergiy V | Light collection and illumination systems employing planar waveguide |
US8639072B2 (en) | 2011-10-19 | 2014-01-28 | Milan Momcilo Popovich | Compact wearable display |
WO2010127285A2 (en) | 2009-04-30 | 2010-11-04 | Tetracam, Inc. | Method and apparatus for providing a 3d image via media device |
US8783898B2 (en) | 2009-05-01 | 2014-07-22 | Abl Ip Holding Llc | Light emitting devices and applications thereof |
DE102009003069A1 (de) | 2009-05-13 | 2010-11-25 | Seereal Technologies S.A. | 3D-Anzeigedisplay mit steuerbarer Vorrichtung zum Nachführen von Sichtbarkeitsbereichen |
US8509309B2 (en) | 2009-05-14 | 2013-08-13 | Massachusetts Institute Of Technology | Selecting transforms for compressing visual data |
US8203595B2 (en) | 2009-05-21 | 2012-06-19 | Alcatel Lucent | Method and apparatus for enabling improved eye contact in video teleconferencing applications |
CN102450026B (zh) | 2009-05-28 | 2015-01-14 | 皇家飞利浦电子股份有限公司 | 自动立体显示设备 |
US8216405B2 (en) | 2009-05-28 | 2012-07-10 | Microsoft Corporation | Making an optic with a cladding |
GB2470752B (en) | 2009-06-03 | 2015-01-07 | Au Optronics Corp | Autostereoscopic Display Apparatus |
JP5563250B2 (ja) | 2009-06-30 | 2014-07-30 | 株式会社ジャパンディスプレイ | 立体画像表示装置 |
US8390680B2 (en) | 2009-07-09 | 2013-03-05 | Microsoft Corporation | Visual representation expression based on player expression |
KR20110006773A (ko) | 2009-07-15 | 2011-01-21 | 삼성전자주식회사 | 디스플레이장치 및 텔레비전 |
EP2282231A3 (en) | 2009-08-07 | 2011-05-04 | JDS Uniphase Corporation | Multi-segment optical retarder for creating 3d images |
JP5375424B2 (ja) | 2009-08-10 | 2013-12-25 | 東芝ライテック株式会社 | 発光装置及びその製造方法、灯具、並びに灯具システム |
FR2949264B1 (fr) | 2009-08-18 | 2012-02-24 | Screen Res | Procede de fabrication d'un ecran de projection et ecran correspondant |
US8354806B2 (en) | 2009-08-21 | 2013-01-15 | Microsoft Corporation | Scanning collimation of light via flat panel lamp |
US20110242298A1 (en) | 2009-08-21 | 2011-10-06 | Microsoft Corporation | Private video presentation |
US20110044582A1 (en) | 2009-08-21 | 2011-02-24 | Microsoft Corporation | Efficient collimation of light with optical wedge |
US20110044056A1 (en) | 2009-08-21 | 2011-02-24 | Microsoft Corporation | Light collector for an illumination optic |
JP5333050B2 (ja) | 2009-08-25 | 2013-11-06 | ソニー株式会社 | 立体映像表示装置および立体映像表示装置の製造方法 |
WO2011067921A1 (ja) | 2009-12-01 | 2011-06-09 | シャープ株式会社 | 折畳み式携帯端末 |
JP5325346B2 (ja) | 2009-12-01 | 2013-10-23 | ルミニット エルエルシー | 反射スクリーン、映画スクリーンの2つの部位を組み立てる方法、および反射スクリーン用の継ぎ目 |
KR101676872B1 (ko) | 2009-12-14 | 2016-11-16 | 엘지전자 주식회사 | 광학 어셈블리, 이를 구비한 백라이트 유닛 및 디스플레이 장치 |
US9244533B2 (en) | 2009-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Camera navigation for presentations |
KR101684478B1 (ko) | 2010-01-20 | 2016-12-09 | 삼성디스플레이 주식회사 | 복수의 도광판을 갖는 백라이트 어셈블리 |
US20110188120A1 (en) | 2010-01-29 | 2011-08-04 | Beam Engineering For Advanced Measurement Co. | Broadband optics for manipulating light beams and images |
KR101680771B1 (ko) | 2010-02-04 | 2016-11-30 | 삼성전자주식회사 | 입체 영상 디스플레이 장치 및 방법 |
JP2013080562A (ja) | 2010-02-10 | 2013-05-02 | Sharp Corp | バックライト装置および液晶表示装置並びにテレビジョン受像機 |
US8384774B2 (en) * | 2010-02-15 | 2013-02-26 | Eastman Kodak Company | Glasses for viewing stereo images |
KR20110097690A (ko) * | 2010-02-23 | 2011-08-31 | 삼성전자주식회사 | 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치 |
US20110216266A1 (en) | 2010-03-02 | 2011-09-08 | Microsoft Corporation | Wedge backlight with diffraction grating |
US8922480B1 (en) | 2010-03-05 | 2014-12-30 | Amazon Technologies, Inc. | Viewer-based device control |
JP5055398B2 (ja) | 2010-03-12 | 2012-10-24 | 株式会社ジャパンディスプレイイースト | 照明装置および液晶表示装置 |
JP5462672B2 (ja) | 2010-03-16 | 2014-04-02 | 株式会社ジャパンディスプレイ | 表示装置及び電子機器 |
US9628722B2 (en) | 2010-03-30 | 2017-04-18 | Personify, Inc. | Systems and methods for embedding a foreground video into a background feed based on a control input |
KR20110109565A (ko) | 2010-03-31 | 2011-10-06 | 삼성전자주식회사 | 백라이트 유닛, 이를 구비한 3d 디스플레이 및 3d 영상 형성 방법 |
JP5528885B2 (ja) | 2010-03-31 | 2014-06-25 | 嶋田プレシジョン株式会社 | 回折格子を利用した導光板及び液晶テレビ用直下型バックライト装置 |
BR112012026325A2 (pt) | 2010-04-16 | 2019-09-24 | Flex Lighting Ii Llc | dispositivo de iluminação compreendendo um guia de luz baseado em película |
US8564740B2 (en) | 2010-05-24 | 2013-10-22 | 3M Innovative Properties Company | Directional backlight with reduced crosstalk |
US8477261B2 (en) | 2010-05-26 | 2013-07-02 | Microsoft Corporation | Shadow elimination in the backlight for a 3-D display |
EP2577963A1 (en) | 2010-05-26 | 2013-04-10 | Ramot at Tel Aviv University, Ltd. | Method and system for correcting gaze offset |
US8311337B2 (en) | 2010-06-15 | 2012-11-13 | Cyberlink Corp. | Systems and methods for organizing and accessing feature vectors in digital images |
US10089937B2 (en) | 2010-06-21 | 2018-10-02 | Microsoft Technology Licensing, Llc | Spatial and temporal multiplexing display |
KR101680770B1 (ko) | 2010-07-09 | 2016-11-29 | 삼성전자주식회사 | 백라이트 유닛 및 이를 구비하는 디스플레이장치 |
WO2012008152A1 (ja) | 2010-07-14 | 2012-01-19 | パナソニック株式会社 | 表示装置 |
WO2012008972A1 (en) | 2010-07-16 | 2012-01-19 | Hewlett-Packard Development Company, L.P. | Methods and systems for establishing eye contact and accurate gaze in remote collaboration |
KR101729556B1 (ko) | 2010-08-09 | 2017-04-24 | 엘지전자 주식회사 | 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치 |
WO2012021967A1 (en) | 2010-08-16 | 2012-02-23 | Tandemlaunch Technologies Inc. | System and method for analyzing three-dimensional (3d) media content |
US9024997B2 (en) | 2010-09-03 | 2015-05-05 | At&T Intellectual Property L.L.P. | Virtual presence via mobile |
JP5364666B2 (ja) | 2010-09-13 | 2013-12-11 | 株式会社東芝 | 立体画像表示装置、方法およびプログラム |
US8534901B2 (en) | 2010-09-13 | 2013-09-17 | Teledyne Reynolds, Inc. | Collimating waveguide apparatus and method |
EP2431786A1 (de) | 2010-09-17 | 2012-03-21 | Bayer MaterialScience AG | Autostereoskopisches 3D-Display |
US8854356B2 (en) | 2010-09-28 | 2014-10-07 | Nintendo Co., Ltd. | Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method |
US8651725B2 (en) | 2010-09-30 | 2014-02-18 | Global Lighting Technology Inc. | Backlight module |
US8848040B2 (en) | 2010-10-08 | 2014-09-30 | 3Dv Co., Ltd. | 3D display system with active shutter plate |
US9294717B2 (en) | 2010-10-13 | 2016-03-22 | At&T Intellectual Property I, L.P. | System and method to enable layered video messaging |
CA2815418A1 (en) | 2010-10-22 | 2012-04-26 | S. C. Johnson & Son, Inc. | Compressible pouch with multiple collapsible channels across bottom |
KR20120045098A (ko) | 2010-10-29 | 2012-05-09 | 삼성전자주식회사 | 백라이트 어셈블리 및 이를 갖는 액정 표시 장치 |
KR101670927B1 (ko) | 2010-11-05 | 2016-11-01 | 삼성전자주식회사 | 디스플레이 장치 및 방법 |
US8494237B2 (en) | 2010-11-08 | 2013-07-23 | Cranial Technologies, Inc | Method and apparatus for processing digital image representations of a head shape |
US8651726B2 (en) | 2010-11-19 | 2014-02-18 | Reald Inc. | Efficient polarized directional backlight |
US20140041205A1 (en) | 2010-11-19 | 2014-02-13 | Reald Inc. | Method of manufacturing directional backlight apparatus and directional structured optical film |
US9250448B2 (en) | 2010-11-19 | 2016-02-02 | Reald Inc. | Segmented directional backlight and related methods of backlight illumination |
KR101775068B1 (ko) | 2010-11-19 | 2017-09-06 | 리얼디 스파크, 엘엘씨 | 방향성 평판 조명기 |
US20130328866A1 (en) | 2010-11-19 | 2013-12-12 | Reald Inc. | Spatially multiplexed imaging directional backlight displays |
CN102012742A (zh) * | 2010-11-24 | 2011-04-13 | 广东威创视讯科技股份有限公司 | 一种眼睛鼠标的校正方法及其装置 |
US8988336B2 (en) | 2010-12-16 | 2015-03-24 | 3M Innovative Properties Company | Dual-orientation autostereoscopic backlight and display |
KR20120074825A (ko) | 2010-12-28 | 2012-07-06 | 엘지전자 주식회사 | 디스플레이 장치 |
US8823769B2 (en) | 2011-01-05 | 2014-09-02 | Ricoh Company, Ltd. | Three-dimensional video conferencing system with eye contact |
US8836777B2 (en) * | 2011-02-25 | 2014-09-16 | DigitalOptics Corporation Europe Limited | Automatic detection of vertical gaze using an embedded imaging device |
JP2012181688A (ja) | 2011-03-01 | 2012-09-20 | Sony Corp | 情報処理装置、情報処理方法、情報処理システムおよびプログラム |
US10499059B2 (en) | 2011-03-08 | 2019-12-03 | Velos Media, Llc | Coding of transform coefficients for video coding |
US20120236133A1 (en) * | 2011-03-18 | 2012-09-20 | Andrew Charles Gallagher | Producing enhanced images from anaglyph images |
JP2012204370A (ja) | 2011-03-23 | 2012-10-22 | Sony Corp | 光源回路ユニットおよび照明装置、並びに表示装置 |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
KR101788723B1 (ko) | 2011-04-28 | 2017-10-20 | 엘지이노텍 주식회사 | 발광 소자 패키지 |
JP5751922B2 (ja) | 2011-05-09 | 2015-07-22 | キヤノン株式会社 | 発光装置および表示装置 |
US8676937B2 (en) | 2011-05-12 | 2014-03-18 | Jeffrey Alan Rapaport | Social-topical adaptive networking (STAN) system allowing for group based contextual transaction offers and acceptances and hot topic watchdogging |
WO2012158574A1 (en) | 2011-05-13 | 2012-11-22 | Reald Inc. | Efficient polarized directional backlight |
JP2012244396A (ja) * | 2011-05-19 | 2012-12-10 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
US8184069B1 (en) | 2011-06-20 | 2012-05-22 | Google Inc. | Systems and methods for adaptive transmission of data |
US9153031B2 (en) | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
KR101912408B1 (ko) | 2011-06-29 | 2018-10-26 | 엘지전자 주식회사 | 이동 단말기 및 이동 단말기의 제어 방법 |
JP5649526B2 (ja) | 2011-07-01 | 2015-01-07 | 株式会社ジャパンディスプレイ | 表示装置 |
US8760762B1 (en) | 2011-08-12 | 2014-06-24 | Google Inc. | Image waveguide utilizing two mirrored or polarized surfaces |
KR101884628B1 (ko) | 2011-08-24 | 2018-08-02 | 엘지이노텍 주식회사 | 발광 모듈 및 백라이트 유닛 |
JP6242569B2 (ja) | 2011-08-25 | 2017-12-06 | 東芝メディカルシステムズ株式会社 | 医用画像表示装置及びx線診断装置 |
US9538133B2 (en) | 2011-09-23 | 2017-01-03 | Jie Diao | Conveying gaze information in virtual conference |
US9097826B2 (en) | 2011-10-08 | 2015-08-04 | Svv Technology Innovations, Inc. | Collimating illumination systems employing a waveguide |
US20130107340A1 (en) | 2011-10-31 | 2013-05-02 | Yoon Kean Wong | Autostereoscopic Steering Light-Guide Three-Dimensional Displays |
US20130127861A1 (en) | 2011-11-18 | 2013-05-23 | Jacques Gollier | Display apparatuses and methods for simulating an autostereoscopic display device |
US20130135588A1 (en) | 2011-11-29 | 2013-05-30 | Milan Momcilo Popovich | 3D display apparatus |
WO2013079607A1 (en) * | 2011-11-30 | 2013-06-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | View rendering for the provision of virtual eye contact using special geometric constraints in combination with eye-tracking |
US8942434B1 (en) * | 2011-12-20 | 2015-01-27 | Amazon Technologies, Inc. | Conflict resolution for pupil detection |
US8593452B2 (en) | 2011-12-20 | 2013-11-26 | Apple Inc. | Face feature vector construction |
US8824779B1 (en) | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
WO2013116460A1 (en) | 2012-01-31 | 2013-08-08 | Alphamicron Incorporated | Electronically dimmable optical device |
CN202486493U (zh) | 2012-02-07 | 2012-10-10 | 天津三多水科技有限公司 | 一种投影幕布 |
US9684953B2 (en) | 2012-02-27 | 2017-06-20 | Eth Zurich | Method and system for image processing in video conferencing |
KR101977638B1 (ko) | 2012-02-29 | 2019-05-14 | 삼성전자주식회사 | 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
US8950883B2 (en) | 2012-03-09 | 2015-02-10 | Corning Incorporated | Bezel-free display device using directional backlighting |
US9378574B2 (en) | 2012-04-26 | 2016-06-28 | Electronics And Telecommunications Research Institute | Apparatus and method for producing makeup avatar |
US9350980B2 (en) | 2012-05-18 | 2016-05-24 | Reald Inc. | Crosstalk suppression in a directional backlight |
US9678267B2 (en) | 2012-05-18 | 2017-06-13 | Reald Spark, Llc | Wide angle imaging directional backlights |
JP6308630B2 (ja) | 2012-05-18 | 2018-04-11 | リアルディー スパーク エルエルシー | 指向性照明導波路配置 |
CN104321686B (zh) | 2012-05-18 | 2017-04-12 | 瑞尔D斯帕克有限责任公司 | 控制定向背光源的光源 |
CN104487877A (zh) | 2012-05-18 | 2015-04-01 | 瑞尔D股份有限公司 | 定向显示设备 |
US9188731B2 (en) | 2012-05-18 | 2015-11-17 | Reald Inc. | Directional backlight |
JP2015525432A (ja) | 2012-05-18 | 2015-09-03 | リアルディー インコーポレイテッド | 結像指向性バックライトのための光源調整 |
US9104908B1 (en) | 2012-05-22 | 2015-08-11 | Image Metrics Limited | Building systems for adaptive tracking of facial features across individuals and groups |
US8957943B2 (en) | 2012-07-02 | 2015-02-17 | Bby Solutions, Inc. | Gaze direction adjustment for video calls and meetings |
US9224248B2 (en) | 2012-07-12 | 2015-12-29 | Ulsee Inc. | Method of virtual makeup achieved by facial tracking |
KR101979669B1 (ko) | 2012-07-13 | 2019-05-17 | 삼성전자주식회사 | 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말 |
US9285532B2 (en) | 2012-07-13 | 2016-03-15 | Blackberry Limited | Backlight module having a prisim reflector |
WO2014018269A1 (en) | 2012-07-23 | 2014-01-30 | Reald Inc. | Observer tracking autostereoscopic display |
US9081195B2 (en) | 2012-08-13 | 2015-07-14 | Innolux Corporation | Three-dimensional image display apparatus and three-dimensional image processing method |
CN103807664A (zh) | 2012-11-07 | 2014-05-21 | 纬创资通股份有限公司 | 光源模块和制作光源模块的方法 |
JP6147275B2 (ja) | 2012-11-29 | 2017-06-14 | シャープ株式会社 | 立体画像処理装置、立体画像処理方法、及びプログラム |
US20140153832A1 (en) | 2012-12-04 | 2014-06-05 | Vivek Kwatra | Facial expression editing in images based on collections of images |
US9552668B2 (en) | 2012-12-12 | 2017-01-24 | Microsoft Technology Licensing, Llc | Generation of a three-dimensional representation of a user |
JP6132232B2 (ja) | 2013-02-01 | 2017-05-24 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援システム、およびメイクアップ支援方法 |
CN105210110A (zh) | 2013-02-01 | 2015-12-30 | 松下知识产权经营株式会社 | 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序 |
TWI622811B (zh) | 2013-02-22 | 2018-05-01 | 瑞爾D斯帕克有限責任公司 | 具方向的背光源 |
US9262648B2 (en) | 2013-02-22 | 2016-02-16 | Fujitsu Limited | Display device with automatic viewing angle control |
KR101538935B1 (ko) | 2013-05-28 | 2015-07-24 | 주식회사 포디컬쳐 | 깊이 차이를 이용한 얼굴 구성요소의 자동 분류 방법 |
EP3011734A4 (en) * | 2013-06-17 | 2017-02-22 | RealD Inc. | Controlling light sources of a directional backlight |
JP6099232B2 (ja) | 2013-08-22 | 2017-03-22 | ビスポーク, インコーポレイテッド | カスタム製品を創作するための方法及びシステム |
KR101856568B1 (ko) * | 2013-09-16 | 2018-06-19 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 제어 방법 |
US9224060B1 (en) * | 2013-09-17 | 2015-12-29 | Amazon Technologies, Inc. | Object tracking using depth information |
JP6364627B2 (ja) | 2013-11-01 | 2018-08-01 | パナソニックIpマネジメント株式会社 | 視線方向検出装置および視線方向検出方法 |
EP3069074A4 (en) | 2013-11-15 | 2017-08-02 | RealD Spark, LLC | Directional backlights with light emitting element packages |
US20150243035A1 (en) | 2014-02-21 | 2015-08-27 | Metaio Gmbh | Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest |
WO2015134996A1 (en) * | 2014-03-07 | 2015-09-11 | Pelican Imaging Corporation | System and methods for depth regularization and semiautomatic interactive matting using rgb-d images |
KR20230060544A (ko) | 2014-03-21 | 2023-05-04 | 리얼디 스파크, 엘엘씨 | 지향성 백라이트 |
US9407896B2 (en) * | 2014-03-24 | 2016-08-02 | Hong Kong Applied Science and Technology Research Institute Company, Limited | Multi-view synthesis in real-time with fallback to 2D from 3D to reduce flicker in low or unstable stereo-matching image regions |
US9489739B2 (en) | 2014-08-13 | 2016-11-08 | Empire Technology Development Llc | Scene analysis for improved eye tracking |
US9325939B2 (en) | 2014-08-14 | 2016-04-26 | Verizon Patent And Licensing Inc. | Method and system for providing gaze-directed correction during a video conferencing session |
US9760762B2 (en) | 2014-11-03 | 2017-09-12 | Anastasia Soare | Facial structural shaping |
US9626564B2 (en) | 2014-11-17 | 2017-04-18 | Intel Corporation | System for enabling eye contact in electronic images |
US10496160B2 (en) | 2014-12-16 | 2019-12-03 | Koninklijke Philips N.V. | Gaze tracking system with calibration improvement, accuracy compensation, and gaze localization smoothing |
US10356383B2 (en) | 2014-12-24 | 2019-07-16 | Reald Spark, Llc | Adjustment of perceived roundness in stereoscopic image of a head |
US9740282B1 (en) * | 2015-01-05 | 2017-08-22 | Amazon Technologies, Inc. | Gaze direction tracking |
US9704038B2 (en) | 2015-01-07 | 2017-07-11 | Microsoft Technology Licensing, Llc | Eye tracking |
KR102306538B1 (ko) | 2015-01-20 | 2021-09-29 | 삼성전자주식회사 | 콘텐트 편집 장치 및 방법 |
CN104574321B (zh) | 2015-01-29 | 2018-10-23 | 京东方科技集团股份有限公司 | 图像修正方法、图像修正装置和视频系统 |
US9300916B1 (en) | 2015-02-10 | 2016-03-29 | International Business Machines Corporation | Natural gazes during online video conversations |
GB2539845B (en) | 2015-02-19 | 2017-07-12 | Magic Pony Tech Ltd | Offline training of hierarchical algorithms |
US10368741B2 (en) | 2015-02-27 | 2019-08-06 | Valorisation-Recherche, Limited Partnership | Method of and system for processing signals sensed from a user |
GB201507210D0 (en) | 2015-04-28 | 2015-06-10 | Microsoft Technology Licensing Llc | Eye gaze correction |
KR102317021B1 (ko) | 2015-06-26 | 2021-10-25 | 삼성전자주식회사 | 디스플레이 장치 및 이의 영상 보정 방법 |
CN104951808B (zh) | 2015-07-10 | 2018-04-27 | 电子科技大学 | 一种用于机器人交互对象检测的3d视线方向估计方法 |
EP3335195A2 (en) | 2015-08-14 | 2018-06-20 | Metail Limited | Methods of generating personalized 3d head models or 3d body models |
KR102174258B1 (ko) * | 2015-11-06 | 2020-11-04 | 삼성전자주식회사 | 무안경 3d 디스플레이 장치 및 그 제어 방법 |
US20170132528A1 (en) | 2015-11-06 | 2017-05-11 | Microsoft Technology Licensing, Llc | Joint model training |
US9538130B1 (en) | 2015-12-10 | 2017-01-03 | Dell Software, Inc. | Dynamic gaze correction for video conferencing |
ES2912310T3 (es) | 2016-01-05 | 2022-05-25 | Reald Spark Llc | Corrección de la mirada en imágenes multivista |
US10423830B2 (en) | 2016-04-22 | 2019-09-24 | Intel Corporation | Eye contact correction in real time using neural network based machine learning |
US10664949B2 (en) | 2016-04-22 | 2020-05-26 | Intel Corporation | Eye contact correction in real time using machine learning |
WO2017213218A1 (ja) | 2016-06-10 | 2017-12-14 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム |
US10043088B2 (en) | 2016-06-23 | 2018-08-07 | Siemens Healthcare Gmbh | Image quality score using a deep generative machine-learning model |
US10062198B2 (en) | 2016-06-23 | 2018-08-28 | LoomAi, Inc. | Systems and methods for generating computer ready animation models of a human head from captured data images |
US20180158246A1 (en) | 2016-12-07 | 2018-06-07 | Intel IP Corporation | Method and system of providing user facial displays in virtual or augmented reality for face occluding head mounted displays |
US11026634B2 (en) | 2017-04-05 | 2021-06-08 | doc.ai incorporated | Image-based system and method for predicting physiological parameters |
US10777018B2 (en) | 2017-05-17 | 2020-09-15 | Bespoke, Inc. | Systems and methods for determining the scale of human anatomy from images |
-
2017
- 2017-01-04 ES ES17736268T patent/ES2912310T3/es active Active
- 2017-01-04 CN CN201780006239.1A patent/CN108463787B/zh active Active
- 2017-01-04 WO PCT/US2017/012203 patent/WO2017120247A1/en active Application Filing
- 2017-01-04 US US15/397,951 patent/US10321123B2/en active Active
- 2017-01-04 EP EP17736268.8A patent/EP3400706B1/en active Active
- 2017-01-04 CN CN202111303849.2A patent/CN114143495A/zh active Pending
-
2019
- 2019-05-07 US US16/405,415 patent/US10750160B2/en active Active
-
2020
- 2020-07-23 US US16/937,382 patent/US11317081B2/en active Active
-
2022
- 2022-03-24 US US17/703,039 patent/US11854243B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2017120247A1 (en) | 2017-07-13 |
US10321123B2 (en) | 2019-06-11 |
US11854243B2 (en) | 2023-12-26 |
US11317081B2 (en) | 2022-04-26 |
US20220400246A1 (en) | 2022-12-15 |
CN108463787B (zh) | 2021-11-30 |
CN114143495A (zh) | 2022-03-04 |
US20170195662A1 (en) | 2017-07-06 |
EP3400706A1 (en) | 2018-11-14 |
EP3400706B1 (en) | 2022-04-13 |
CN108463787A (zh) | 2018-08-28 |
US20200021794A1 (en) | 2020-01-16 |
EP3400706A4 (en) | 2019-08-14 |
US20210044794A1 (en) | 2021-02-11 |
US10750160B2 (en) | 2020-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2912310T3 (es) | Corrección de la mirada en imágenes multivista | |
US10948726B2 (en) | IPD correction and reprojection for accurate mixed reality object placement | |
CA3017827C (en) | Efficient canvas view generation from intermediate views | |
KR102291461B1 (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
US20190129174A1 (en) | Multi-perspective eye-tracking for vr/ar systems | |
US20140009570A1 (en) | Systems and methods for capture and display of flex-focus panoramas | |
US20180033157A1 (en) | Image processing method and apparatus for determining depth within an image | |
US20230239457A1 (en) | System and method for corrected video-see-through for head mounted displays | |
CN109255838A (zh) | 避免增强现实显示设备观看重影的方法及设备 | |
CN110581977B (zh) | 一种视频画面的输出方法、装置及三目摄像机 | |
US20220028109A1 (en) | Image processing method and apparatus | |
TW202020622A (zh) | 視線向量偵測方向與裝置 | |
Lander et al. | Eyemirror: Mobile calibration-free gaze approximation using corneal imaging | |
US20240054619A1 (en) | Differently correcting images for different eyes | |
US20220165190A1 (en) | System and method for augmenting lightfield images | |
KR20170008194A (ko) | 전처리를 이용한 영상 디스플레이 방법 및 장치 | |
US20230010947A1 (en) | Electronic apparatus, and method for displaying image on display device | |
US20240046434A1 (en) | Image processing method and image processing apparatus performing the same | |
KR101691806B1 (ko) | 전처리를 이용한 영상 디스플레이 방법 및 장치 | |
KR20220013834A (ko) | 영상 처리 방법 및 장치 | |
EP3229470A1 (en) | Efficient canvas view generation from intermediate views | |
KR20170102450A (ko) | 전처리를 이용한 영상 디스플레이 방법 및 장치 |