ES2492865A2 - Aparato de visualización - Google Patents

Aparato de visualización Download PDF

Info

Publication number
ES2492865A2
ES2492865A2 ES201450002A ES201450002A ES2492865A2 ES 2492865 A2 ES2492865 A2 ES 2492865A2 ES 201450002 A ES201450002 A ES 201450002A ES 201450002 A ES201450002 A ES 201450002A ES 2492865 A2 ES2492865 A2 ES 2492865A2
Authority
ES
Spain
Prior art keywords
view
osd
display
glasses
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201450002A
Other languages
English (en)
Other versions
ES2492865B2 (es
ES2492865R1 (es
Inventor
Hak-Jae Kim
Jae-hyo LIM
Hoon Choi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of ES2492865A2 publication Critical patent/ES2492865A2/es
Publication of ES2492865R1 publication Critical patent/ES2492865R1/es
Application granted granted Critical
Publication of ES2492865B2 publication Critical patent/ES2492865B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Aparato de visualización. Dicho aparato de visualización puede incluir una pluralidad de unidades receptoras que reciben una pluralidad de contenidos distintos, una unidad de procesado de señal que procesa los contenidos recibidos en la pluralidad de unidades receptoras para construir una pluralidad de vistas de contenido, una unidad de salida que visualiza cada vista de contenido construida en la unidad de procesado de señal, una unidad de entrada que recibe un comando para visualizar información de visualización en pantalla (OSD, on-screen display), y una unidad de control que determina una vista de contenido para visualizar información OSD de entre la pluralidad de vistas de contenido, cuando se introduce un comando para visualizar OSD, y una unidad de procesado de OSD que visualiza información OSD sobre la vista de contenido determinada.

Description

DESCRIPCIÓN
Aparato de visualización.
Campo de la invención
Los aparatos y métodos según la descripción mostrada en la presente memoria son relativos a la visualización, y más particularmente, a un aparato de visualización que proporciona diferentes contenidos a una pluralidad de usuarios y un método de visualización de los mismos.
Antecedentes de la técnica
Desde que las tecnologías electrónicas se vienen desarrollando, se han ido creando, vendiendo y diseminando productos electrónicos. En particular, la mayoría de familias utilizan principalmente aparatos de visualización como la televisión, teléfono móvil, PC, ordenador portátil, y la PDA.
Dado que el uso de aparatos de visualización se ha incrementado, también se han incrementado las necesidades de nuevas funcionalidades para el consumidor. Así, los fabricantes de electrónica trabajan duro para satisfacer las necesidades del consumidor y como resultado, han sido lanzados nuevos productos presentando nuevas funcionalidades tales como la provisión de contenidos en tres dimensiones (3D).
Recientemente, un aparato de visualización para suministrar una pluralidad de contenidos simultáneamente y permitir a una pluralidad de usuarios visionar diferentes contenidos simultáneamente ha sido desarrollado.
Descripción de la invención
Problema Técnico
Sin embargo, si un usuario pide la información de visualización en pantalla (OSD, onscreen display) para cambiar los atributos de visualización del contenido, el aparato de visualización presenta el problema de visualizar la información OSD a modo de contenidos que otros usuarios están visionando. Así, otros usuarios pueden ser interrumpidos mientras visionan los contenidos.
Solución al Problema
Las formas de realización a modo de ejemplo superan las desventajas anteriores y otras desventajas no descritas anteriormente. Además, el presente concepto inventivo no se requiere para superar las desventajas descritas anteriormente, y una forma de realización a modo de ejemplo puede no superar ninguno de los problemas descritos anteriormente.
De acuerdo con una forma de realización a modo de ejemplo, un objetivo técnico es visualizar información OSD para cambiar los atributos de visualización de contenido, sin molestar a otros usuarios que están visionando distintos contenidos.
En una forma de realización a modo de ejemplo, un aparato de visualización apto para funcionar de manera que permite que un primer usuario que lleva puestas unas primeras gafas y un segundo usuario que lleva puestas unas segundas gafas visionen simultáneamente distintos contenidos de vídeo. El aparato de visualización comprende: una pluralidad de unidades receptoras aptas para funcionar de manera que reciben una pluralidad de distintos contenidos incluyendo un primer contenido de vídeo y un segundo contenido de vídeo; una unidad de procesado de señal que procesa el primer contenido de vídeo y el segundo contenido de vídeo; una unidad de salida que incluye un panel de visualización que visualiza una primera vista correspondiente al primer contenido de vídeo y una segunda vista correspondiente al segundo contenido de vídeo; una unidad de control que determina cuándo visualizar información de visualización en pantalla (OSD, on-screen display) en una de entre la primera vista y la segunda vista en respuesta a recibir un comando para visualizar la OSD, y la unidad de control controla la unidad de salida para visualizar la información OSD en la vista determinada de entre la primera vista y la segunda vista mientras que no se visualiza información OSD en la otra vista de entre la primera vista y la segunda vista, en el que, en respuesta a recibir el comando para visualizar la OSD, la vista de entre la primera vista y la segunda vista que presenta la información OSD y la otra vista que no presenta información OSD se visualizan en el panel de visualización de forma que las imágenes correspondientes a la primera vista son visionables mediante las primeras gafas y las imágenes correspondientes a la segunda vista son visionables mediante las segundas gafas.
Las primeras gafas y las segundas gafas pueden comprender gafas de tipo obturador activo, y la primera vista y la segunda vista se visualizan alternativamente de una manera fotograma a fotograma en el panel de visualización de forma que los fotogramas correspondientes a la primera vista son visionables mediante las primeras gafas y los fotogramas correspondientes a la segunda vista son visionables mediante las segundas gafas.
El aparato de visualización puede además comprender: una unidad de generación de señal de sincronismo que genera señales de sincronismo que sincronizan las primeras gafas y las segundas gafas con la primera vista y segunda vista, respectivamente, de acuerdo con una temporización de visualización; y una unidad de interfaz que transmite las señales de sincronismo a las primeras gafas y las segundas gafas.
Las primeras gafas pueden hacerse funcionar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando sobre el panel de visualización fotogramas correspondientes a la primera vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la segunda vista, y las segundas gafas pueden hacerse funcionar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando fotogramas correspondientes a la segunda vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la primera vista.
El aparato de visualización puede comprender además almacenamiento que almacena información relativa a una pluralidad de dispositivos de entrada que corresponden a cada una de entre la primera vista y la segunda vista, en el que, cuando se recibe el comando para visualizar la OSD mediante uno de entre la pluralidad de dispositivos de entrada, se determina cuál de ellos de entre la pluralidad de dispositivos de entrada transmitió el comando y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde al dispositivo de entrada de entre la pluralidad de dispositivos de entrada que transmite el comando para visualizar la OSD.
Cada uno de la pluralidad de dispositivos de entrada comprende una unidad de control remoto.
El comando para visualizar la OSD se introduce mediante unas de entre las primeras gafas y las segundas gafas, y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde a las unas de entre las primeras gafas y las segundas gafas que transmiten el comando para visualizar la OSD.
El aparato de visualización puede comprender además una unidad de procesado de OSD que genera la información OSD para ser visualizada en la vista determinada y suministra la información OSD generada a la unidad de salida, en el que la unidad de control selecciona un objetivo de control de entre la pluralidad de vistas de contenidos de acuerdo con una señal remota introducida desde una unidad de control remoto, procesa una vista de contenido como el objetivo de control de acuerdo con la señal de control cuando la señal de control se introduce desde la unidad de control remoto en un estado donde una vista de contenido se selecciona como el objetivo de control, y controla la unidad de procesado de OSD para visualizar la información OSD en la vista de contenido que se ha determinado como el objetivo de control cuando el comando para visualizar la visualización de OSD se introduce desde la unidad de control remoto.
El aparato de visualización puede comprender además una unidad de procesado de OSD que genera la información OSD para ser visualizada en la vista determinada y suministra la información OSD generada a la unidad de salida, en el que la unidad de control controla la unidad de procesado de OSD para eliminar la información OSD visualizada en la primera vista y para visualizar la información OSD en la segunda vista, cuando se introduce un comando para visualizar OSD respecto a la segunda vista, en un estado donde la información OSD se visualiza en la primera vista.
La información OSD puede comprender por lo menos un menú OSD para cambiar las características de visualización de contenidos, y la unidad de control controla la unidad de procesado de señal para cambiar las características de visualización de la vista de contenido donde se visualiza la información OSD de acuerdo con el cambio de un valor de ajuste de usuario, cuando el valor de ajuste de usuario se cambia en por lo menos un menú OSD.
La unidad de salida combina una pluralidad de vistas de contenidos en unidades de fotogramas de imagen, y visualiza los resultados.
Las primeras gafas y las segundas gafas comprenden gafas pasivas, y la primera vista y la segunda vista se entrelazan sobre un mismo fotograma de forma que las líneas de píxeles que representan la primera vista son visionables mediante las primeras gafas pasivas que presentan un primer par de lentes polarizadas en la misma primera dirección y las líneas de píxeles que representan la segunda vista son visionables mediante las segundas gafas pasivas que presentan un segundo par de lentes polarizadas en una misma segunda dirección diferente de la primera dirección.
El aparato de visualización puede comprender además un almacenamiento que almacena información relativa a una pluralidad de dispositivos de entrada los cuales corresponden a cada una de entre la primera vista y la segunda vista, en el que, cuando el comando para visualizar la OSD se recibe mediante uno de entre la pluralidad de dispositivos de entrada, se determina cuál de entre la pluralidad de dispositivos de entrada transmitió el comando y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde al dispositivo de entre la pluralidad de dispositivos de entrada que transmite el comando para visualizar la OSD.
Cada uno de la pluralidad de dispositivos de entrada puede comprender una unidad de control remoto.
El comando para visualizar la OSD se puede introducir mediante unas de entre las primeras gafas y las segundas gafas, y la información OSD se puede visualizar en una de entre la primera vista y la segunda vista que corresponde a unas de entre las primeras gafas y las segundas gafas que transmiten el comando para visualizar la OSD.
En otra forma de realización a modo de ejemplo, se proporciona un método de visualización para permitir a un primer usuario que lleva puestas unas primeras gafas y a un segundo usuario que lleva puestas unas segundas gafas el visionar simultáneamente distintos contenidos de vídeo. El método de visualización puede comprender: recibir una pluralidad de contenidos incluyendo un primer contenido de vídeo y un segundo contenido de vídeo; procesar el primer contenido de vídeo y el segundo contenido de vídeo; visualizar, en el panel de visualización, una primera vista correspondiente al primer contenido de vídeo y una segunda vista correspondiente al segundo contenido de vídeo; determinar si se visualiza la información de visualización en pantalla (OSD) en una de entre la primera vista y la segunda vista en respuesta a la recepción de un comando para visualizar la OSD, y controlar la visualización de la información OSD en la vista determinada de entre la primera vista y la segunda vista mientras no se visualiza información OSD en la otra vista de entre la primera vista y la segunda vista que no se ha determinado, en el que, en respuesta a recibir un comando para visualizar la OSD, la vista de entre la primera vista y la segunda vista que presenta la información OSD y la otra vista que no presenta información OSD se visualizan de forma que imágenes correspondientes a la primera vista son visionables mediante las primeras gafas e imágenes correspondientes a la segunda vista son visionables mediante las segundas gafas.
Las primeras gafas y las segundas gafas pueden comprender gafas de tipo obturación activa, y la primera vista y la segunda vista se visualizan alternativamente de una manera fotograma a fotograma en el panel de visualización de forma que fotogramas que corresponden a la primera vista son visionables mediante las primeras gafas y fotogramas correspondientes a la segunda vista son visionables mediante las segundas gafas
El método de visualización puede comprender además: generar señales de sincronismo que sincronicen las primeras gafas y las segundas gafas a la primera vista y la segunda vista, respectivamente, de acuerdo con una temporización de visualización; y transmitir las señales de sincronismo a las primeras gafas y a las segundas gafas.
Las primeras gafas se pueden hacer funcionar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando sobre el panel de visualización fotogramas correspondientes a la primera vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la segunda vista, y las segundas gafas se pueden operar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando fotogramas correspondientes a la segunda vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la primera vista.
El método de visualización puede comprender además almacenar información relativa a una pluralidad de dispositivos de entrada que corresponden a cada una de entre la primera vista y la segunda vista, en el que, cuando se recibe el comando para visualizar la OSD mediante uno de entre la pluralidad de dispositivos de entrada, se determina cuál de ellos de entre la pluralidad de dispositivos de entrada transmitió el comando y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde al dispositivo de entrada de entre la pluralidad de dispositivos de entrada que transmite el comando para visualizar la OSD.
Efectos ventajosos de la invención
En varias formas de realización, durante una operación de combinar una pluralidad de contenidos y visualizar el resultado, el aparato de visualización es capaz de visualizar información OSD en una vista de contenido específica. Como resultado, una pluralidad de usuarios pueden continuar visionando los contenidos sin ser molestados innecesariamente.
Breve descripción de las figuras
Los aspectos anteriores y/o otros aspectos de formas de realización a modo de ejemplo serán más evidentes con referencia a los dibujos adjuntos, en los cuales:
La figura 1 es un diagrama que ilustra un sistema para suministrar una pluralidad de contenidos a una pluralidad de usuarios de acuerdo con una forma de realización a modo de ejemplo;
la figura 2 es un diagrama de bloques de un aparato de visualización de acuerdo con una forma de realización a modo de ejemplo;
la figura 3 es un diagrama de bloques de una unidad de procesado de señal que construye fotogramas de imagen de una pluralidad de contenidos de un aparato de visualización de acuerdo con una forma de realización a modo de ejemplo;
la figura 4 es un diagrama de bloques de otra composición de un aparato de visualización;
la figura 5 es un diagrama de bloques de gafas de acuerdo con una forma de realización a modo de ejemplo; y
la figura 6 es un diagrama de flujo que ilustra un método para visualizar una pluralidad de contenidos e información OSD en un aparato de visualización de acuerdo con una forma de realización a modo de ejemplo.
Formas de realización
Haciendo referencia a las figuras adjuntas, la invención se describe en detalle a continuación.
La figura 1 es un diagrama que ilustra un sistema para suministrar una pluralidad de contenidos a una pluralidad de usuarios de acuerdo con una forma de realización.
Haciendo referencia a la figura 1, el sistema puede incluir un aparato de visualización 100 y gafas 200.
El aparato de visualización 100 puede procesar una pluralidad de contenidos y visualizar una pluralidad de vistas de contenido, y transmitir señales de sincronismo correspondientes a la temporización de visualización de cada vista de contenido a las gafas 200. La figura 1 ejemplifica un sistema de visualización que procesa cada uno de los 4 contenidos y crea 4 vistas de contenido. Una función para suministrar una pluralidad de vistas de contenido como en la figura 1 puede llamarse una función multi-vista. Dependiendo del rendimiento de un sistema, el número de vistas de contenido puede estar limitado a 2, o puede ser plural de 2 a n (siendo n un número natural). Un modo que proporciona 2 vistas de contenido puede llamarse un modo de vista dual, mientras que un modo que proporciona 3 vistas de contenido puede llamarse un modo de vista triple, y un modo que proporciona 4 vistas de contenido puede llamarse un modo de vista cuádruple, etc. Cualquiera de estos modos puede llamarse un modo multi-vista. La figura 1 ilustra un sistema funcionando en un modo de vista cuádruple.
Cada una de las gafas (200-1, 200-2) puede controlar la temporización de apertura del obturador de acuerdo con la señal de sincronismo. Esto es, las gafas (200-1, 200-2) pueden abrir el cristal obturador durante el tiempo en que se visualizan las correspondientes vistas de contenido, permitiendo a un usuario visionar uno de entre la pluralidad de contenidos. El cristal obturador, tal y como se usa durante esta especificación, puede referirse a cualquier dispositivo que proporciona una operación de obturación. Esto es, para el propósito de esta especificación, el término cristal obturador puede referirse a cualquier dispositivo capaz de realizar una operación de obturación esté el dispositivo hecho de cristal o no.
La figura 1 ilustra un estado donde las primeras gafas (200-1) están emparejadas a la vista de contenido 3. En este caso, las primeras gafas (200-1) pueden abrir el cristal obturador con la temporización de la visualización de la vista de contenido 3 de entre las vistas de contenido visualizadas, de acuerdo con las señales de sincronismo recibidas del aparato de visualización 100.
Como se ha explicado anteriormente, las primeras gafas (200-1) pueden abrir el cristal obturador con la temporización de la vista de contenido 3, y un usuario puede contemplar la vista de contenido 3 de entre los contenidos visualizados en el aparato de visualización 100 mediante las primeras gafas (200-1) que él o ella lleva puestas.
Mientras tanto, las segundas gafas (200-2) pueden abrir el cristal obturador con la temporización de visualización de la vista de contenido 2 de entre la pluralidad de vistas de contenidos 2 visualizadas de forma alternada de acuerdo con las señales de sincronismo recibidas del aparato de visualización 100.
En consecuencia, el usuario que lleva puestas las segundas gafas (200-2) que abren el cristal obturador 200 con la temporización de visualización de la vista de contenido 2, puede contemplar la vista de contenido 2 de entre la pluralidad de vistas de contenido visualizadas en el aparato de visualización 100 mediante las segundas gafas 200-2 que él o ella lleva puestas.
El usuario que lleva puestas cada una de las gafas (200-1, 200-2) puede seleccionar una vista de contenidos que el usuario quiera ver usando varios medios de entrada como son un botón previsto en las gafas o una unidad de control remoto. Por ejemplo, en un caso donde las gafas disponen de un botón, cada una de las gafas (200-1, 200-2) selecciona las vistas de contenidos 1, 2, 3 y 4 consecutivamente cuando se selecciona un botón y se sincroniza con la vista de contenidos. Por otra parte, en un caso donde las gafas disponen de un número de botones correspondientes a un número del total de vistas de contenido, es posible presionar cierto botón de forma que una vista de contenidos que corresponde a ese botón sea directamente sincronizada.
Mientras tanto, el usuario que visiona una vista de contenido específica con cada una de las gafas (200-1, 200-2) de entre la pluralidad de vistas de contenido puede solicitar visualizar OSD (on-screen display, visualización en pantalla) usando un dispositivo de entrada como puede ser botones previstos en las gafas que él o ella lleva puestas (200-1, 200-2) o una unidad de control remoto. Si se introduce el comando para visualizar la OSD, el aparato de visualización 100 puede añadir OSD y visualizar la OSD junto con el fotograma de imagen de la correspondiente vista de contenido de entre la pluralidad de las vistas de contenidos visualizadas en respuesta al comando para visualizar la OSD. El comando para visualizar la OSD puede ser definido en varios tipos, y las vistas de contenido que corresponden al comando para visualizar OSD pueden también ser determinadas en varios tipos. Estas formas de realización a modo de ejemplo se explicarán en lo sucesivo en más detalle.
Como se ilustra en las figuras, el usuario que lleva puestas las segundas gafas (200-2) puede visionar la vista de contenido 2 de entre una pluralidad de vistas de contenidos suministradas por el aparato de visualización 100. Mientras visiona la vista de contenido 2, el usuario puede solicitar visualizar OSD mediante las segundas gafas (200-2) que él o ella lleva puestas o mediante una unidad de control remoto. En respuesta a que se ha introducido un comando para visualizar OSD, el aparato de visualización 100 puede analizar la petición de visualizar OSD y confirmar que se ha efectuado un comando para visualizar información OSD respecto la vista de contenidos 2. Después de eso, el aparato de visualización 100 puede añadir la información OSD 101 pedida por el usuario a la vista de contenido 2 visualizada, esto es, un fotograma de imagen de contenidos 2 de entre la pluralidad de vistas de contenido visualizadas, y visualizar el resultado.
En consecuencia, el usuario que lleva puestas las segundas gafas (200-2) puede contemplar la vista de contenido 2, mientras también visiona la información OSD añadida a la vista de contenido 2. Por otra parte, el usuario que lleva puestas las primeras gafas (200-1) que están sincronizadas con otra vista de contenido no puede ver la información OSD. Por consiguiente, en un caso donde el usuario que lleva puestas las segundas gafas (200-2) pretenda confirmar la información OSD, el visionado del usuario que lleva puestas las primeras gafas (200-1) no se interrumpe con la información OSD.
El sistema que incluye el aparato de visualización 100 para suministrar una pluralidad de contenidos y las gafas (200-1, 200-2) para visionar la pluralidad de contenidos suministrados por el aparato de visualización 100 se ha explicado brevemente hasta ahora.
Los respectivos componentes del aparato de visualización 100 y las gafas (200-1, 200-2) se explicarán en mayor detalle a continuación.
La figura 2 es un diagrama de bloques de un aparato de visualización de acuerdo con una forma de realización a modo de ejemplo.
En referencia a la figura 2, el aparato de visualización puede incluir una unidad receptora 110, una unidad de procesado de señal 120, una unidad de salida 130, una unidad de generación de señal de sincronismo 140, una unidad de interfaz 150, una unidad de entrada 160, una unidad de control 170 y una unidad de almacenamiento 180.
Puede existir una pluralidad de unidades receptoras, y es posible recibir una pluralidad de distintos contenidos mediante la pluralidad de unidades receptoras 110-1, 110-2, …, 110
n. En una forma de realización a modo de ejemplo, la pluralidad de unidades receptoras 110-1, 110-2, …, 110-n puede realizarse para constar de distintos tipos de elementos constituyentes. Específicamente, las unidades receptoras 110-1, 110-2, …, 110-n pueden cada una recibir contenidos de una estación de difusión que transmite contenidos de programas de difusión usando una red de difusión, o de un servidor web el cual transmite los ficheros de contenido usando internet. Además, algunas de las unidades receptoras 110-1, 110-2, …, 110-n pueden recibir el contenido de una variedad de dispositivos de reproducción de medios de grabación ya sean previstos en el aparato de visualización o conectados a él. El dispositivo de reproducción de medios de grabación hace referencia a un dispositivo que reproduce contenidos almacenados en varios medios de grabación tales como el CD, el DVD, el disco duro, el disco blue-ray, la tarjeta de memoria o la memoria USB.
Una unidad receptora que recibe contenido de una estación de difusión puede ser diseñada para incluir un sintonizador (no mostrado), un demodulador (no mostrado), o un ecualizador (no mostrado). Si el contenido se recibe de un dispositivo fuente como un servidor web, o de un dispositivo externo como un DVD (digital versatile disk), o un ordenador personal (PC, personal computer), la unidad receptora recibe los contenidos mediante varios interfaces como el interfaz SCART, el interfaz audio/video AV, el interfaz multimedia de alta definición (HDMI, high-definition multimedia interface), el interfaz COMPONENT, o el interfaz de bus serie universal (USB, universal serial bus).
La unidad de procesado de señal 120 puede procesar diferentes contenidos recibidos de una pluralidad de unidades receptoras 110-1, 110-2, …, 110-n y construir una pluralidad de vistas de contenido usando los fotogramas de imagen de cada contenido. Puede existir una pluralidad de unidades de procesado de señal para corresponder a la pluralidad de unidades receptoras 110-1, 110-2, …, 110-n para procesar los contenidos recibidos de la pluralidad de unidades receptoras 110-1, 110-2, …, 110-n y construir los fotogramas de imagen. Sin embargo, una forma de realización a modo de ejemplo no se limita a lo anterior. En consecuencia, puede haber una unidad de procesado de señal 120 que funciona para procesar diferentes contenidos recibidos de la pluralidad de unidades receptoras 110-1, 110-2, …, 110-n y construye los fotogramas de imagen en relación con los respectivos contenidos. La figura 2 ilustra una forma de realización a modo de ejemplo donde se usa una unidad de procesado de señal 120. El funcionamiento de la unidad de procesado de señal 120 será explicado en mayor detalle a continuación en referencia a la figura 3.
La figura 3 es un diagrama de bloques de una unidad de procesado de señal para construir los fotogramas de la pluralidad de contenidos en el aparato de visualización de acuerdo con una forma de realización a modo de ejemplo.
En referencia a la figura 3, la unidad de procesado de señal 120 puede incluir un demultiplexor 121, una unidad de procesado de vídeo 122, un conversor de fotogramas por segundo 123, una unidad de procesado de audio 124 y una unidad de procesado de datos adicionales 125. El demultiplexor 121 puede separar los datos de vídeo, audio y datos adicionales de los contenidos.
La unidad de procesado de vídeo 122 puede procesar señales respectivas a los datos de vídeo del contenido separado en el demultiplexor 121. En una forma de realización a modo de ejemplo donde se usa una unidad de procesado de señal 120, el demultiplexor demultiplexa cada contenido recibido de la pluralidad de unidades receptoras consecutivamente, y la unidad de procesado de vídeo 122 realiza el procesado sobre los datos de vídeo incluidos en cada contenido.
Específicamente, la unidad de procesado de vídeo 122 puede incluir un decodificador (no mostrado) que decodifica los datos de vídeo, y un re-escalador (no mostrado) que aumenta o reduce la escala de los datos para el tamaño de pantalla de la unidad de salida 130. La unidad de procesado de vídeo 122 puede convertir los datos de vídeo en el formato de datos correspondiente al conversor de fotogramas por segundo 123. Específicamente, si los datos de vídeo introducidos están en formato de arriba a abajo y el conversor de fotogramas por segundo 123 procesa el fotograma en formato lado a lado, la unidad de procesado de vídeo 122 puede conectar los fotogramas de imagen de contenidos horizontalmente para convertir los fotogramas al formato de lado a lado. Adicionalmente, se puede incluir una unidad de procesado de OSD en la unidad de procesado de vídeo 122. La unidad de procesado de OSD y el re-escalador pueden realizarse en la forma de un chip. En consecuencia, el re-escalador puede generar un fotograma de imagen usando los datos decodificados, y entonces añadir al fotograma de imagen la información OSD generada por la unidad de procesado de OSD.
El conversor de fotogramas por segundo 123 puede convertir los fotogramas por segundo de los contenidos suministrados desde la unidad de procesado de vídeo 122 para coincidir con la frecuencia de visualización de multi-contenidos usando de referencia la frecuencia de salida del aparato de visualización. Específicamente, si el aparato de visualización funciona a 60Hz, en un modo de vista dual, el conversor de fotogramas por segundo 122 puede convertir los fotogramas por segundo de los contenidos respectivos a 120Hz.
La unidad de procesado de audio 124 puede procesar señales respectivas a los datos de audio separados del contenido en el demultiplexor 121. La unidad de procesado de audio 124 puede incluir un decodificador de audio (no mostrado) que decodifica los datos de audio del contenido separado en el demultiplexor 121, y un demodulador (no mostrado) que demodula los datos de audio decodificados a diferentes señales de frecuencia.
En la forma de realización a modo de ejemplo donde se incluye una pluralidad de unidades de procesado de señal como la antedicha, una primera unidad de procesado de señal puede recibir contenido 1 de una unidad receptora 110-1, mientras una segunda unidad de procesado de señal 120-2 puede recibir contenido 2 de otra unidad receptora 110-2. En este ejemplo, las unidades de procesado de audio 124 en cada unidad de procesado de señal puede demodular los datos de audio del contenido 1 y del contenido 2 a diferentes señales de frecuencia. Si los datos están modulados en diferentes señales de frecuencia, la unidad de salida 130 puede transmitir a las gafas los datos de audio demodulados. Como resultado, el usuario puede escuchar el audio relativo al contenido a través de un medio de salida como puede ser un auricular incorporado en las gafas. Dado que los elementos detallados de la unidad de procesado de audio 124 son menos relevantes para las formas de realización, la información detallada adicional de los mismos se omitirá en aras de la brevedad.
Adicionalmente, la unidad de procesado de señal 120 incluye una unidad de procesado de datos adicionales 125. Dependiendo de las situaciones, el contenido puede incluir datos adicionales como EPG (Electronic Program Guide, guía electrónica de programas)
o los subtítulos. En tal ejemplo, el demultiplexor 121 de la unidad de procesado de señal 120 puede adicionalmente separar los datos adicionales del contenido. Si se separan los datos adicionales, la unidad de procesado de datos adicionales 125 puede añadir al fotograma de imagen relevante los datos separados en el demultiplexor 121.
La unidad de salida 130 incluye un panel de visualización (no mostrado), un altavoz (no mostrado), y un módulo de comunicación por radiofrecuencia (RF) etc. El panel de visualización visualiza un fotograma de vídeo procesado en la unidad de procesado de vídeo 122 y el conversor de fotogramas por segundo 123. Específicamente, la unidad de salida 130 puede combinar los contenidos de salida del conversor de fotogramas por segundo 123 de la unidad de procesado de señal 120 para construir fotogramas multicontenido. Esto es, la unidad de salida 130 puede llevar a cabo multiplexación de forma que el fotograma de imagen de los contenidos suministrados desde el conversor de fotogramas por segundo 123 de la unidad de procesado de señal 120 se disponen alternativamente por lo menos uno a uno. La unidad de salida 130 puede entonces aumentar la escala de los datos multiplexados al tamaño de pantalla para construir los fotogramas multi-contenido, para una pluralidad de vistas de contenido, y visualizar los fotogramas de imagen. Como se usa en el presente documento, el “fotograma multicontenido” hace referencia a los datos de fotograma construidos para que una pluralidad de usuarios visionen cada uno una pluralidad de contenidos. El método para construir los fotogramas multi-contenido puede implementarse de formas variadas dependiendo del método para llevar a cabo el funcionamiento del aparato de visualización.
A modo de ejemplo, si el aparato de visualización funciona en conjunto con el cristal obturador, la unidad de salida 130 puede construir el fotograma multi-contenido de forma que los fotogramas de imagen de los primeros y segundos contenidos se dispongan alternativamente por lo menos uno a uno, y visualicen el resultado. Mientras tanto, el usuario puede llevar puestas las gafas que funcionan en asociación con el temporizador de visualización de la unidad de salida 130, para visionar el contenido deseado de entre uno del contenido 1 y contenido 2. Específicamente, las gafas pueden incluir un cristal obturador en el ojo izquierdo y un cristal obturador en el ojo derecho. Los obturadores del ojo izquierdo y del ojo derecho de las gafas pueden activarse y desactivarse alternativamente para visualizar contenidos tridimensionales (3D). Sin embargo, como se ha descrito anteriormente, para visualizar los fotogramas de imagen en los que los que los fotogramas de imagen se disponen alternativamente por lo menos uno a uno, el cristal obturador del ojo izquierdo y del ojo derecho de las gafas puede estar activo o inactivo simultáneamente en concordancia con la temporización de los contenidos de salida que se sincronizan con las gafas. En consecuencia, el usuario puede visualizar el contenido independientemente de los otros usuarios.
Mientras tanto, los contenidos pueden ser bidimensionales (2D) o 3D. Los contenidos 3D aluden a contenidos que usan imagen en multi-perspectiva visualizando el objeto desde distintas vistas y proporcionando al usuario la sensación de profundidad. Si se recibe una pluralidad de contenidos 3D, la unidad de salida 130 puede multiplexar las imágenes del ojo izquierdo y del ojo derecho incluidas en cada uno de los contenidos 3D en el emplazamiento predeterminado y las puede disponer alternativamente con los fotogramas de imagen de los otros contenidos.
Por ejemplo, si el contenido 1 y el contenido 2 son contenidos de imagen 3d y si el contenido 3 es contenido de imagen 2D, la unidad de salida 130 puede disponer alternativamente el fotograma de imagen del ojo izquierdo del contenido 1, el fotograma de imagen del ojo derecho del contenido 1, el fotograma de imagen del ojo izquierdo del contenido 2, el fotograma de imagen del ojo derecho del contenido 3, y el fotograma de imagen del contenido 3 en el orden de salida de los fotogramas de imagen desde el conversor de fotogramas por segundo 123 de la unidad de procesado de señal 121, y visualizar el resultado.
El altavoz incluido en la unidad de salida 130 emite la señal de audio decodificada en el decodificador de audio en la unidad de procesado de audio 124. Adicionalmente, el módulo de comunicación RF difunde las señales de frecuencia moduladas en un modulador de audio en la unidad de procesado de audio 124 en un método de comunicación RF. El altavoz y el módulo de comunicación RF pueden funcionar selectivamente de acuerdo con las operaciones del aparato de visualización 100. Por ejemplo, cuando el aparato de visualización 100 funciona en un modo general, la unidad de control 170 puede emitir señales de audio a través del altavoz, pero cuando el aparato de visualización 100 funciona en el modo multi-vista mencionado anteriormente, la unidad de control 170 puede emitir la señal de audio de cada contenido usando el módulo de comunicación RF. Una señal de audio emitida como un tipo de señal RF se recibe por cada una de las gafas (200-1, 200-2), y se emite a través de un medio de salida de sonido como un auricular o un altavoz incorporado en las gafas. Las gafas pueden seleccionar una señal de frecuencia correspondiente a la vista de contenido sincronizada, y permite al usuario escuchar la señal de audio del contenido correspondiente a la vista de contenido correspondiente junto con la vista de contenido.
Mientras tanto, la unidad de generación de señal de sincronismo 140 puede generar señales para sincronizar las gafas correspondientes a los contenidos de acuerdo con la temporización de visualización de los respectivos contenidos. Esto es, la unidad de generación de señal de sincronismo 140 puede generar las señales para sincronizar las gafas a la temporización del fotograma de imagen de los contenidos en un modo multivista.
La unidad de interfaz 150 puede comunicarse con las gafas. Específicamente, la unidad de interfaz 150 puede transmitir a las gafas las señales de sincronismo generadas en la unidad de generación de señal de sincronismo 140. La unidad de interfaz 150 puede transmitir a las gafas las señales de sincronismo de distintas formas.
Por ejemplo, la unidad de interfaz 150 puede generar las señales de sincronismo dentro de un paquete de transmisión de acuerdo con los estándares de comunicación Bluetooth y transmitir las señales a las gafas. El paquete de transmisión puede estar sincronizado con la temporización de visualización de una pluralidad de contenidos e incluir información de tiempo activo o inactivo del cristal obturador del ojo izquierdo y del ojo derecho de las gafas. Específicamente, la información de tiempo en el paquete de transmisión puede incluir el retraso de tiempo de apertura del obturador izquierdo, el retraso de tiempo de cierre del obturador izquierdo, el retraso de tiempo de apertura del obturador derecho, y el retraso de tiempo de cierre del obturador derecho.
El tiempo de retraso puede ser información de retraso desde un tiempo predefinido de los respectivos contenidos hasta el momento de activación o desactivación del cristal obturador del ojo izquierdo y del ojo derecho. Esto es, si el retraso de tiempo transcurre desde el tiempo de referencia, las gafas pueden activar/desactivar el cristal obturador del ojo izquierdo y del ojo derecho. Por ejemplo, el tiempo predefinido puede ser el punto de tiempo de generación de las señales de sincronismo ortogonales (es decir, sincronismo de fotograma) del fotograma de imagen. La información del tiempo predefinido puede incluirse en el paquete de transmisión. Las gafas pueden fijar el punto de generación de señales de sincronismo ortogonales para activar/desactivar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho basándose en la información de tiempo de referencia incluida en el paquete de transmisión recibido.
De cara a realizar la comunicación Bluetooth, la unidad de interfaz 150 puede transmitir y recibir la dirección Bluetooth o los códigos de identificación (códigos pin) para llevar a cabo emparejamiento con las gafas de acuerdo con el estándar de comunicaciones Bluetooth. Después del emparejamiento, la unidad de interfaz 150 puede registrar información de las gafas tal como la información de identificación de las gafas. Después de eso, la unidad de interfaz 150 puede emparejar la temporización de visualización de los respectivos contenidos con la información de las gafas, y transmitir el paquete de transmisión a las gafas basándose en la información de identificación adquirida del emparejamiento.
Al recibir el paquete de transmisión las gafas pueden comprobar la temporización de visualización basándose en la información incluida en el paquete de transmisión recibido, y activar/desactivar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho de acuerdo con la temporización de visualización encontrada.
Por ejemplo, mientras los fotogramas de imagen del contenido 1 y del contenido 2, esto es, la primera y segunda vista de contenido, se visualizan alternativamente, la unidad de interfaz 150 puede enviar las señales de sincronismo generadas en la unidad de generación de señal de sincronismo 140 a las gafas 1 y a las gafas 2 de acuerdo con el estándar de comunicación Bluetooth. La señal de sincronismo transmitida a las gafas 1 puede incluir la información respecto al tiempo y al punto de referencia temporal para accionar el cristal obturador del ojo izquierdo y del ojo derecho de las gafas 1 de acuerdo con la temporización de visualización del contenido 1. El paquete de transmisión transmitido a las gafas 2 puede incluir la información del tiempo y del punto de referencia temporal para accionar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho de las gafas 2 de acuerdo con la temporización de visualización del contenido 2.
En consecuencia, basándose en la información incluida en el paquete de transmisión recibido, las gafas 1 pueden activar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho en la temporización de visualización durante la cual los fotogramas de imagen del contenido 1 se están visualizando, y desactivar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho en la temporización de visualización durante la cual los fotogramas de imagen del contenido 2 se están visualizando.
Mientras tanto, basándose en la información incluida en el paquete de transmisión recibido, las gafas 2 pueden activar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho en la temporización de visualización durante la cual los fotogramas de imagen del contenido 2 se están visualizando, y desactivar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho en la temporización de visualización durante la cual los fotogramas de imagen del contenido 1 se están visualizando.
Como resultado, el usuario que lleva puestas las gafas 1 puede ver el contenido 1, mientras que el usuario que lleva puestas las gafas 2 puede ver el contenido 2.
En otra forma de realización a modo de ejemplo, la unidad de interfaz 150 puede enviar una señal de sincronismo a las gafas utilizando otros métodos de comunicación aparte del estándar de comunicación Bluetooth. Por ejemplo las gafas se pueden proveer de una señal de sincronismo por infrarrojos (IR, Infra Red) o por radiofrecuencia (RF) de distintas frecuencias. En un ejemplo, las gafas pueden recibir señales de sincronismo de una frecuencia específica y activar o desactivar los cristales obturadores de acuerdo con la temporización de visualización del contenido correspondiente.
En la forma de realización a modo de ejemplo anterior, la unidad de interfaz 150 puede transmitir la señal IR repitiendo el nivel alto para el ciclo 1 y el nivel bajo para el ciclo 2 en unos intervalos de tiempo predeterminados, basados en la información incluida en la señal de sincronismo. Las gafas pueden activar el cristal obturador durante el ciclo 1 (es decir, el nivel alto), y desactivar el cristal obturador durante el ciclo 2 (es decir, el nivel bajo). La señal de sincronismo puede generarse de varias otras formas además de los ejemplos explicados anteriormente.
Pese a que en los ejemplos descritos anteriormente la unidad de interfaz 150 y las gafas se comunican entre ellas con comunicación Bluetooth o IR o RF, tales ejemplos se han escrito únicamente con fines ilustrativos. En consecuencia, métodos de comunicación distintos de comunicaciones Bluetooth, tales como comunicación IR, o comunicación Zigbee pueden ser usados, o pueden también implementarse varios métodos de comunicación inalámbrica, en cuyo caso los canales de comunicación de distancia remota pueden ser formados para transmitir y recibir señales.
Mientras tanto, la unidad de entrada 160 puede recibir un comando para visualizar la OSD para controlar el funcionamiento general del aparato de visualización a través de un dispositivo de entrada externo. El dispositivo de entrada puede ser uno de entre las unidades de control remoto y gafas. La unidad de entrada 160 puede ser realizada en varios tipos tales como una unidad receptora de señal IR, un diodo receptor de luz, un chip de recepción de RF, etc.
Un comando para visualizar la OSD puede no ser únicamente comandos para visualizar un menú OSD para controlar el funcionamiento del aparato de visualización 100 o comandos para visualizar información de difusión en un tipo OSD, sino también puede ser tipos de comandos para casos donde se visualizan OSD adicionales para realizar una operación específica tales como ajuste de volumen, entrada de número de canal, ajuste de canal, y ajuste de las características de visualización tales como brillo o contraste, etc. Por lo tanto, la información OSD puede incluir varios tipos de objetos tales como un menú OSD de ajuste de pantalla para optimizar el tamaño de pantalla y brillo, menú OSD de ajuste de canal, visualización OSD del nivel de volumen, EPG, menú OSD para ajustar funciones del equipo, números de canal, gráfico OSD que visualice la cantidad de ajuste de las características de visualización, fechas y hora, etc. Mientras tanto, en una forma de realización a modo de ejemplo donde se envía un comando para visualizar la OSD de acuerdo con el estándar de comunicación Bluetooth, un comando para visualizar la OSD puede ser recibido mediante la unidad de interfaz 150.
Como se ha mencionado anteriormente, si se introduce el comando para visualizar la OSD en la unidad de entrada 160, la unidad de control 170 determina la vista de contenido en la cual visualizar la información OSD de entre la pluralidad de vistas de contenidos; una vista de contenido corresponde al comando para visualizar la OSD. Y entonces, la unidad de control 170 controla la unidad de procesado de señal 120 y la unidad de salida 140 para añadir información OSD a la vista de contenido determinada y visualizar el resultado. La información OSD puede preferiblemente incluir por lo menos un menú OSD para cambiar los atributos de visualización de por lo menos un contenido de entre la pluralidad de contenidos recibidos. Como se ha mencionado anteriormente, la información OSD puede incluir un menú OSD de ajuste de pantalla para la optimización del tamaño y brillo de una pantalla en la cual el contenido se visualiza, o un menú OSD de ajuste de canal.
La vista de contenido correspondiente al comando para visualizar la OSD puede ser determinada por varios métodos de acuerdo con las formas de realización a modo de ejemplo.
En una forma de realización a modo de ejemplo donde el funcionamiento del aparato de visualización 100 se controla con una unidad de control remoto, mientras que los fotogramas de imagen de los contenidos 1 y 2 se visualizan alternativamente, usando los botones de entrada previstos en la unidad de control remoto, el usuario puede seleccionar el contenido a visualizar junto a la información OSD y solicitar la información OSD. Por ejemplo, si el usuario selecciona el contenido a visualizar junto con la información OSD e introduce una petición para información OSD, la unidad de control remoto puede transmitir información de comando para visualizar OSD incluyendo un comando para visualizar OSD.
En el ejemplo anterior, la unidad de control 170 puede controlar la unidad de procesado de señal 120 de acuerdo con el comando para seleccionar el contenido 1 incluido en la información del comando para visualizar OSD de forma que la información OSD se visualiza adicionalmente respecto a los fotogramas de imagen del contenido 1 de entre los fotogramas de imagen de los contenidos 1 y 2. De acuerdo con el comando de control, la unidad de procesado de señal 120 añade información OSD a los fotogramas de imagen del contenido 1 generados mediante la unidad de procesado de vídeo 122, y visualiza los fotogramas de imagen del contenido 1 a los que se les ha sumado la información OSD, y los fotogramas de imagen del contenido 2 a través de la pantalla de forma alternada.
Como resultado, de entre el usuario que está visionando el contenido 1 mediante las gafas y el usuario que está viendo el contenido 2 mediante otras gafas, solo el usuario que está visionando el contenido 1 es capaz de visionar la información OSD.
De otra manera, en un caso donde el funcionamiento del aparato 100 está controlado por una unidad de control remoto, la unidad de control 170 puede determinar la vista de contenido que puede ser controlada por la unidad de control remoto en el momento en que se introduce el comando para visualizar OSD como la vista de contenido que corresponde al comando para visualizar OSD de entre la pluralidad de vistas de contenido. Esto es, la unidad de control 170 puede establecer el objetivo de control de entre la pluralidad de vistas de contenidos, de acuerdo con la señal de selección de vista de contenido recibida desde la unidad de control remoto.
Por ejemplo, en un caso donde cada vista de contenido coincida con cada tecla numérica, cuando se introduce la tecla número 1 en la unidad de control remoto, la vista de contenido 1 se establece como el objetivo de control. La unidad de control 170 almacena información sobre la vista de contenido establecida como el objetivo de control en un área de almacenamiento predeterminada tal como un registro interno o memoria adicional. Después de eso, cuando se introducen varias señales de control tales como aquellas para el ajuste del volumen o cambio de canal, etc. la unidad de control 170 comprueba la información sobre la vista de contenido actual establecida como el objetivo de control del área de almacenamiento predeterminada. En la forma de realización a modo de ejemplo mencionada anteriormente, la vista de contenido 1 ha sido establecida como el objetivo de control, y por lo tanto la unidad de control 170 realiza operaciones de ajuste de volumen de audio o cambio de canales de difusión previstas a esa vista de contenido solo relativas a la vista de contenido 1. Adicionalmente, la unidad de control 170 visualiza información OSD sobre el nivel de volumen o cambio de canal, etc. relativo a la vista de contenido 1. Incluso si se introduce otro comando para visualizar OSD, la unidad de control 170 visualiza información 101 sobre la vista de contenido 1 que es el actual objetivo de control. Por otra parte, si se introduce la tecla numérica 2, la unidad de control 170 establece la vista de contenido 2 como objetivo de control, y si hay un comando para visualizar OSD, visualiza la información OSD 101 sobre la vista de contenido 2.
De otra manera, cada vista de contenido y cada tecla de dirección pueden diseñarse para coincidir unas con otras. Esto es, en un modo de vista dual, cuando se introduce una tecla de dirección izquierda en una unidad de control remoto, la vista de contenido 1 puede establecerse como el objetivo de control, y cuando se introduce una tecla de dirección derecha, la vista de contenido 2 puede establecerse como el objetivo de control. En este estado, cuando ocurre un evento para visualizar información OSD, la información OSD se visualiza únicamente sobre la vista de contenido establecida como el objetivo de control.
De otra manera, si una de las teclas en la unidad de control remoto coincide con una función de conversión de un objetivo de control, la unidad de control remoto puede enviar una señal de selección de vista de contenido cuando se selecciona esa tecla. La unidad de control 170 cambia el objetivo de control de entre la pluralidad de vistas de contenido cuando se recibe la señal de selección de vista de contenido. Esto es, la unidad de control 170 selecciona consecutivamente la vista de contenido de acuerdo con el número de veces que se introduce la señal de selección de vista de contenido. Por ejemplo, cuando se recibe un comando para cambiar el objetivo de control en un estado donde la vista de contenido 1 se ha establecido como objetivo de control, la unidad de control 170 cambia el objetivo de control a la vista de contenido 2. Después de eso, cuando se introduce un comando para visualizar OSD, la unidad de control 170 visualiza información OSD sobre la vista de contenido que es el objetivo de control.
Mientras tanto, de acuerdo con un aspecto adicional de una forma de realización a modo de ejemplo, el aparato de visualización puede adicionalmente incluir una unidad de almacenamiento 180 que almacena información sobre una pluralidad de dispositivos de entrada. En un caso donde también se incluye una unidad de almacenamiento 180, la unidad de control 170 puede determinar la vista de contenido que corresponde al comando para visualizar la OSD basándose en esa información. La pluralidad de dispositivos de entrada puede incluir una unidad de control remoto o gafas, y la información almacenada en la unidad de almacenamiento 180 respecto a la pluralidad de dispositivos de entrada puede ser la información de identificación de una pluralidad de unidades de control remoto o información de identificación de una pluralidad de gafas, o información sobre una vista de contenido que coincide con cada dispositivo de entrada, etc.
En consecuencia, si se recibe un comando para visualizar OSD desde uno de entre la pluralidad de dispositivos de entrada, la unidad de control 170 puede controlar la unidad de procesado de señal 120 y la unidad de salida 130 para añadir información OSD, para visualizarla conjuntamente con la vista de contenido específica de entre la pluralidad de contenidos que corresponde al dispositivo de entrada que envía el comando para visualizar la OSD.
Por ejemplo, en un caso donde se usa una pluralidad de unidades de control remoto, cuando se recibe un comando para visualizar OSD de una primera unidad de control remoto de entre una pluralidad de unidades de control remoto, la unidad de control 170 puede usar la información almacenada en la unidad de almacenamiento 180 para controlar la unidad de procesado de señal 120 y la unidad de salida 130 para añadir la información OSD a la vista de contenido 1 que coincide con la primera unidad de control remoto, y visualizarla. Mientras tanto, cuando un comando para visualizar OSD se recibe de una segunda unidad de control remoto, la unidad de control 170 puede usar la información almacenada en la unidad de almacenamiento 180 para controlar la unidad de procesado de señal 120 y la unidad de salida 130 para añadir la información OSD a una vista de contenido 2 que corresponde a la segunda unidad de control remoto, y visualizarla.
Como otro ejemplo, en un caso donde la información de identificación sobre la pluralidad de gafas e información de vista de contenido se almacenan en la unidad de almacenamiento 180, el usuario que está visionando el contenido 1 mediante las gafas puede solicitar información OSD usando los botones de entrada previstos en las gafas que él o ella lleva puestas.
En respuesta a la petición de información OSD, las correspondientes gafas pueden transmitir la información de comando de visualización OSD incluyendo la información de identificación a este, al aparato de visualización. Dependiendo del método de comunicación, el comando de visualización OSD puede ser introducido mediante una unidad de interfaz 150 o una unidad de entrada 160. Al recibir la información del comando de visualización OSD, la unidad de control 170 puede comparar la información de identificación incluida en la información del comando de visualización OSD introducido con la información de identificación almacenada en la unidad de almacenamiento 180, y controlar la unidad de procesado de señal 120 y la unidad de salida 130 para añadir la información OSD a los fotogramas de imagen del contenido que corresponde a las gafas que envían la información de comando de visualización OSD y visualizar el resultado.
Mientras tanto, el usuario que está visionando el segundo contenido mediante las segundas gafas puede solicitar información OSD usando el botón de entrada previsto en las segundas gafas que él o ella lleva puestas. En respuesta a tal petición de información OSD, las segundas gafas transmiten la información de comando de visualización OSD que incluye su información de identificación al aparato de visualización. La unidad de control 170 que ha recibido la información de comando de visualización OSD mediante la unidad de entrada 160 puede comparar la información de identificación incluida en la información de comando de visualización OSD introducido y la información de identificación almacenada en la unidad de almacenaje 180, y controlar la unidad de procesado de señal 120 y la unidad de salida 130 para añadir información OSD a los fotogramas de imagen del segundo contenido que corresponde a las segundas gafas que enviaron la información de comando de visualización OSD.
De acuerdo con tal comando de control, la unidad de procesado de señal 120 puede añadir la información OSD a por lo menos un fotograma de imagen de entre los fotogramas de imagen del primer y segundo contenidos generados mediante la unidad de procesado de vídeo 122. Por lo tanto, la unidad de salida 130 que emite fotogramas de imagen del primer y segundo contenidos alternativamente puede emitir la información OSD junto con el contenido correspondiente a las gafas que transmitieron el comando de visualización OSD.
Al igual que en los ejemplos de formas de realización anteriormente comentadas, la información OSD puede efectuar una operación adicional sobre únicamente algunas vistas de contenido de entre la pluralidad de vistas de contenido. La unidad de control 170 controla las operaciones de la unidad de procesado de OSD para controlar la visualización o eliminación de información OSD.
Por ejemplo, en un estado donde se visualiza información OSD sobre la primera vista de contenido que es una de entre la pluralidad de vistas de contenido, cuando sucede el comando de visualización OSD respecto a la segunda vista de contenido que es otra de entre la pluralidad de vistas de contenido, la unidad de control 170 puede eliminar la información OSD visualizada sobre la primera vista de contenido, y controlar la unidad de procesado de OSD para visualizar la información OSD sobre la segunda vista de contenido.
Como otro ejemplo, en un estado donde se visualiza información OSD sobre la primera vista de contenido que es una de entre la pluralidad de vistas de contenido, cuando sucede el comando de visualización OSD respecto a la segunda vista de contenido que es otra de entre la pluralidad de vistas de contenido, la unidad de control 170 puede controlar la unidad de procesado de OSD para eliminar automáticamente la información OSD visualizada sobre la vista de contenidos 1, y para visualizar la información OSD sobre la vista de contenido 2.
De acuerdo con varios de los ejemplos de formas de realización anteriormente comentadas, de entre el usuario que ve el contenido 1 mediante las gafas y el usuario que ve el contenido 2 mediante las gafas, únicamente el usuario que ve el contenido 1 es capaz de ver la información OSD. Por lo tanto, cada usuario puede visualizar varios menús OSD y controlar el procesado de contenidos y comprobar información OSD respecto al contenido del que él o ella está viendo sin interferir con la visualización otro
usuario.
Como se ha explicado anteriormente, la información OSD puede incluir por lo menos un menú OSD para cambiar los atributos de visualización de por lo menos un contenido de entre la pluralidad de contenidos recibidos. En una forma de realización a modo de ejemplo, la información OSD puede incluir un menú OSD de ajuste de pantalla para la optimización del tamaño y brillo de una pantalla sobre la que se visualiza el contenido, o un menú OSD de ajuste de canal. Mientras se visualiza la información OSD incluyendo el menú OSD mencionado antes, el usuario puede introducir un valor de ajuste de usuario mediante un dispositivo de entrada tal como una unidad de control remoto o gafas que él
o ella lleva puestas.
Si el valor de ajuste de usuario se introduce mediante el dispositivo de entrada, la unidad de control 170 puede controlar la unidad de procesado de señal 120 y la unidad de salida 130 para cambiar los atributos de visualización del contenido sobre el que se visualiza la información OSD, de acuerdo con el valor de ajuste de usuario introducido. En una forma de realización a modo de ejemplo, el usuario que ve el contenido 1 mediante las gafas puede seleccionar el menú OSD de ajuste de pantalla de entre la pluralidad de menús OSD incluidos en la información OSD que se visualiza junto con el contenido 1, usando sus gafas. En consecuencia, las gafas pueden transmitir un comando para visualizar una OSD respecto al ajuste de pantalla al aparato de visualización, y la unidad de salida 130 puede visualizar los fotogramas de imagen del contenido 1 añadiéndoles el menú OSD para ajuste de pantalla, de acuerdo con el comando de control de la unidad de control
170.
Si el usuario cambia el valor de ajuste para ajustar el tamaño de pantalla usando los botones de entrada previstos en las gafas que el usuario lleva puestas mientras él o ella está viendo el menú visualizado, las gafas pueden enviar el valor de ajuste de usuario correspondiente al aparato de visualización. Si se introduce el valor de ajuste de usuario, la unidad de control 170 puede controlar la unidad de procesado de señal 120 y la unidad de salida 130 para ajustar el tamaño de pantalla del contenido 1 sobre el que se visualiza la información OSD, de acuerdo con el valor de ajuste de usuario introducido.
En consecuencia, la unidad de procesado de señal 120 puede ajustar el tamaño de pantalla de los fotogramas de imagen con respecto al contenido 1 mediante la unidad de procesado de vídeo 122, y la unidad de salida 130 puede visualizar los fotogramas de imagen con respecto al contenido 1 que se ajustan en la unidad de procesado de señal
120.
Mientras tanto, la composición del aparato de visualización como en la figura 2 puede cambiarse de varias formas de acuerdo con formas de realización a modo de ejemplo. La figura 4 es otro diagrama de bloques que ilustra una composición del aparato de visualización de acuerdo con otra forma de realización a modo de ejemplo.
De acuerdo con la figura 4, el aparato de visualización incluye una unidad receptora 110, unidad de procesado de señal 120, unidad de salida 130, unidad de entrada 160, unidad de control 170, y unidad de procesado de OSD 190.
La unidad receptora 110 incluye una pluralidad de unidades receptoras cada una de las cuales recibe una pluralidad de contenidos que son distintos de uno a otro. La unidad de procesado de señal 120 procesa cada contenido recibido de la pluralidad de unidades receptoras y forma una pluralidad de vistas de contenido. La unidad de salida 130 visualiza cada vista de contenido formada en la unidad de procesado de señal. La unidad de entrada 160 recibe el comando de visualización OSD. El funcionamiento de la unidad receptora 110, unidad de procesado de señal 120, unidad de salida 130, unidad de entrada 160 se explicó en la parte sobre la figura 2 y por lo tanto se omitirá la repetición de la explicación.
Cuando se introduce el comando de visualización OSD, la unidad de control 170 determina la vista de contenido para visualizar la información OSD de entre una pluralidad de vistas de contenido. Más específicamente, como se explicó en los varios ejemplos de formas de realización anteriormente comentadas, la vista de contenido seleccionada como el objetivo de control o la vista de contenido correspondiente a la unidad de control remoto que envió el comando de visualización OSD o las gafas puede determinarse como el objeto para visualizar información OSD.
La unidad de procesado de OSD 190 genera información OSD para visualizar sobre la vista de contenido determinada. En la figura 2 se ha explicado que la unidad de procesado de señal 120 incluye la unidad de procesado de OSD, pero de acuerdo con la figura 4, la unidad de procesado de OSD 190 y la unidad de procesado de señal 120 están provistas por separado.
La unidad de procesado de OSD 190 designa una localización para visualizar la información OSD, y genera la información OSD a visualizar sobre la localización correspondiente usando información de fuente, información de imagen, e información de tamaño, etc., y suministra esta información a la unidad de procesado de señal 120. La unidad de procesado de señal 120 mezcla la información OSD suministrada y el fotograma de imagen, y entrega el resultado mezclado a la unidad de salida.
Cuando la vista de contenido correspondiente al comando de visualización OSD está establecida, la unidad de control 170 controla la unidad de procesado de OSD 190 para suministrar la información OSD a la unidad de procesado de señal 120 en el momento de procesar la vista de contenido determinada. Cuando la vista de contenido para visualizar la información OSD cambia, la unidad de control 170 controla la unidad de procesado de OSD 190 para suministrar la información OSD en el momento de procesar la vista de contenido. En consecuencia, visualizar y eliminar información OSD puede ser llevado a cabo de forma adecuada.
figura 4 ilustra únicamente la composición para explicar las operaciones relativas al procesado de OSD, pero para que el aparato de visualización 100 se sincronice con las gafas, es por supuesto una cuestión de que varios elementos como la unidad de generación de señal de sincronismo 140, la unidad de interfaz 150, y una unidad de almacenamiento 180 puedan incluirse también. Esto es, la composición del aparato de visualización 100 puede cambiarse de distintas formas de acuerdo con formas de realización a modo de ejemplo. Adicionalmente, la figura 4 únicamente ilustra una unidad de procesado de OSD 190, pero pueden suministrarse una pluralidad de unidades de procesado de OSD.
Mientras tanto, de acuerdo con varios de los ejemplos de formas de realización anteriormente comentadas, únicamente se explicaron las vistas de contenido correspondientes a comandos de visualización OSD de entre la pluralidad de vistas de contenido, pero de acuerdo con otra forma de realización a modo de ejemplo, para comandos de visualización OSD específicos, la información OSD puede ser visualizada sobre una pluralidad de vistas de contenido. En este caso, cada información OSD puede ser expresada de forma diferente de una a otra. La unidad de control 170 puede controlar para que la información OSD visualizada sobre cada vista de contenido se cambie individualmente. Esto es, la forma, color, tamaño, localización, y contenido de la información OSD puede cambiarse de varias maneras. Por ejemplo, en un caso donde se introduce un comando de visualizar un menú OSD para ajustar operaciones del aparato de visualización 100, la unidad de control 170 puede controlar la unidad de procesado de OSD 190 y la unidad de procesado de señal 120 para incluir toda la información OSD en cada vista de contenido.
El funcionamiento y composición del aparato de visualización que visualiza información OSD para un contenido específico sobre el aparato de visualización para visualizar una pluralidad de contenidos ha sido explicada en detalle.
A continuación, se explicará en detalle el funcionamiento de las gafas.
La figura 5 es un diagrama de bloques de las gafas de acuerdo con una forma de realización a modo de ejemplo.
Las gafas de la figura 5 pueden funcionar en asociación con el aparato de visualización que visualiza alternadamente una pluralidad de contenidos unidades de fotogramas de imagen, y pueden incluir una unidad de interfaz 210, una unidad de control 220, una unidad de accionamiento del cristal obturador 230, una unidad de entrada 240, un primer cristal obturador 250, y un segundo cristal obturador.
La unidad de interfaz 210 puede comunicarse con el aparato de visualización.
De acuerdo con una forma de realización a modo de ejemplo, la unidad de interfaz 210 puede ser el módulo de comunicación Bluetooth, y la unidad de interfaz 210 puede recibir señales de sincronismo en la forma de un paquete de transmisión mediante comunicación Bluetooth con el aparato de visualización. El paquete de transmisión puede estar sincronizado con la temporización de visualización de los contenidos e incluir la información de tiempo para activar/desactivar el primer cristal obturador 250 y el segundo cristal obturador 260. La información incluida en el paquete de transmisión no se describirá en más detalle dado que lo precedente explica la información relevante.
De acuerdo con otra forma de realización a modo de ejemplo, la unidad de interfaz 210 puede implementarse como un módulo receptor IR para recibir las señales de sincronismo en la forma de rayo infrarrojo que tiene frecuencias específicas. En el ejemplo anterior, la unidad de interfaz 210 puede incluir la información de tiempo para activar o desactivar el primer cristal obturador 250 y el segundo cristal obturador 260 de las gafas para estar sincronizado con la temporización de visualización de una de entre la pluralidad de contenidos.
De acuerdo con otra forma de realización a modo de ejemplo, la unidad de interfaz 210 puede recibir información respecto al número de fotogramas por segundo de imagen, o del ciclo de fotogramas de imagen de los respectivos contenidos desde el aparato de visualización 100.
La unidad de control 220 puede controlar el funcionamiento general de las gafas. Específicamente, la unidad de control 220 puede controlar el funcionamiento de la unidad de accionamiento del cristal obturador 230 transmitiendo las señales de sincronismo recibidas desde la unidad de interfaz 210 a la unidad de accionamiento del cristal obturador 230. Esto es, la unidad de control 220 puede controlar la unidad de accionamiento del cristal obturador 230 para generar señales de accionamiento para accionar el primer cristal obturador 250 y segundo cristal obturador 260, de acuerdo con las señales de sincronismo.
La unidad de accionamiento del cristal obturador 230 puede generar señales de accionamiento basándose en las señales de sincronismo recibidas desde la unidad de control 220. Específicamente, basándose en las señales de sincronismo, la unidad de accionamiento del cristal obturador 230 puede abrir el primer cristal obturador 250 y segundo cristal obturador 260 de acuerdo con la temporización de visualización de uno de entre una pluralidad de contenidos visualizados en el aparato de visualización 100.
El primer cristal obturador 250 y el segundo cristal obturador 260 pueden activarse y desactivarse de acuerdo con las señales de accionamiento recibidas desde la unidad de accionamiento del cristal obturador 230. Específicamente, el primer cristal obturador 250 y el segundo cristal obturador 260 pueden abrirse simultáneamente cuando se visualiza uno de entre la pluralidad de contenidos, y cerrar los cristales obturadores simultáneamente cuando se visualizan otros contenidos. En consecuencia, el usuario que lleva puestas las gafas puede visionar un contenido.
Adicionalmente, el usuario puede solicitar la información OSD mientras visiona un contenido mediante las gafas que él o ella lleva puestas. El aparato de visualización puede añadir la información OSD al contenido correspondiente y visualizar el resultado. En consecuencia, el usuario puede visionar el contenido visualizado por el aparato de visualización junto con la información OSD añadida al contenido visualizado, correspondiente al punto temporal en el que el primer cristal obturador 250 y el segundo cristal obturador 260 están abiertos simultáneamente.
Mientras tanto, respecto a los contenidos 3D, el primer cristal obturador 250 y el segundo cristal obturador 260 pueden abrirse y cerrarse alternativamente. De acuerdo con las señales de accionamiento, el primer cristal obturador 250 puede abrirse basándose en la temporización de visualización de la imagen del ojo izquierdo del contenido 3D y el segundo cristal obturador 260 puede abrirse basándose en la temporización de visualización de la imagen del ojo derecho del contenido 3D.
La unidad de entrada 240 puede recibir un comando para solicitar información OSD. Con este propósito, la unidad de entrada 240 puede incluir botones de entrada para recibir el comando para solicitar información OSD, y los botones de entrada pueden ser el sensor táctil o el botón de operación. Si se introduce el comando para solicitar información OSD, la unidad de interfaz 210 puede transmitir un comando para visualizar OSD en respuesta al comando para solicitar información OSD al aparato de visualización de acuerdo con el comando de control de la unidad de control 220. En consecuencia, el usuario puede ver la información OSD mientras también visualiza el contenido mediante las gafas que él o ella lleva puestas.
Mientras se visualiza la información OSD, la unidad de entrada 240 puede recibir del usuario un comando para seleccionar por lo menos un menú OSD de entre una pluralidad de menús OSD incluidos en la información OSD, y recibir un valor de ajuste de usuario para cambiar los atributos del contenido basándose en el menú OSD seleccionado.
La información OSD puede incluir un menú OSD de ajuste de pantalla para la optimización del tamaño y brillo de una pantalla en la cual se visualiza el contenido, o un menú OSD de ajuste de canal, y la unidad de entrada 240 puede recibir un valor de ajuste de usuario respecto al menú OSD seleccionado por el usuario de entre la pluralidad de menús OSD. Si el valor de ajuste de usuario se introduce mediante la unidad de entrada 240, la unidad de interfaz 210 puede transmitir la información respecto al valor de ajuste de usuario introducido por el usuario, de acuerdo con el comando de control de la unidad 220.
Como se ha explicado anteriormente, mediante las gafas que él o ella lleva puestas, el usuario puede visionar simultáneamente la información OSD así como un contenido, y cambiar los atributos de visualización de contenido seleccionando uno de los menús OSD incluidos en la información OSD. Además, el usuario puede ver el contenido basado en los atributos de visualización que el usuario ha fijado mediante las gafas que él o ella lleva puestas.
Lo anterior describe los respectivos componentes del aparato de visualización y las gafas. A continuación, se explicará en más detalle un método para visualizar información OSD con contenido específico en el aparato de visualización para visualizar una pluralidad de contenidos.
La figura 6 es un diagrama de flujo proporcionado para explicar un método para visualizar una pluralidad de contenidos e información OSD en el aparato de visualización de acuerdo con una forma de realización a modo de ejemplo.
Referente a la figura 6, en S510, el aparato de visualización puede recibir una pluralidad de diferentes contenidos. Específicamente, el aparato de visualización puede recibir los contenidos desde el exterior a través una pluralidad de sintonizadores o desde un dispositivo externo a través de por lo menos uno de entre los interfaces que incluyen interfaces SCART, AV, HDMI, COMPONENT, o USB.
Si se recibe la pluralidad de contenidos, en S520, el aparato de visualización puede procesar la pluralidad de contenidos y construir los fotogramas de imagen de los respectivos contenidos, para las vistas multi-contenido. Dado que la operación de construir los fotogramas de imagen de los respectivos contenidos en el aparato de visualización ha sido descrita anteriormente en referencia a la figura 3, el método para construir el fotograma de imagen del contenido no será descrito aquí en aras de la brevedad.
Si se construyen los fotogramas de imagen de la pluralidad de contenidos, en S530, el aparato de visualización puede combinar los fotogramas de imagen de la pluralidad de contenidos y visualizar el resultado. El aparato de visualización puede visualizar alternativamente el respectivo fotograma de imagen de los contenidos por lo menos uno por uno. Más específicamente, el aparato de visualización puede entonces multiplexar para que los fotogramas de imagen de los respectivos contenidos se dispongan alternadamente. El aparato de visualización puede entonces sobre-escalar los datos multiplexados al tamaño de pantalla para construir el fotograma multi-contenido, y visualizar el fotograma multi-contenido resultante, que es una pluralidad de vistas de contenido.
Tal y como se usa en la presente memoria, el “fotograma multi-contenido” se refiere a los datos de fotograma construidos para que una pluralidad de usuarios visionen una pluralidad de contenidos cada uno. El método para construir los fotogramas multicontenido puede implementarse de formas variadas dependiendo en el método de accionamiento del aparato de visualización. Dado que los métodos de accionamiento del aparato de visualización han sido explicados anteriormente, se omitirá la descripción detallada de los mismos en aras de la brevedad.
Mientras tanto, si se visualizan los fotogramas de imagen de una pluralidad de contenidos, en S540, el aparato de visualización puede generar señales de sincronismo para sincronizar las gafas correspondientes a los respectivos contenidos, de acuerdo con la temporización de visualización de los respectivos contenidos. En S550, el aparato de visualización puede transmitir las señales de sincronismo a las gafas. Las señales de sincronismo generadas para sincronizar con las gafas con los contenidos pueden estar en varios formatos y ser transmitidas a las correspondientes gafas.
De acuerdo con una forma de realización a modo de ejemplo, el aparato de visualización puede generar una pluralidad de señales de sincronismo IR o RF que presentan distintas frecuencias y transmitir las señales a las respectivas gafas.
De acuerdo con otra forma de realización a modo de ejemplo, el aparato de visualización puede transmitir las señales de sincronismo a las gafas en forma de un paquete de transmisión de acuerdo con el estándar de comunicación Bluetooth. Con este fin, el aparato de visualización puede llevar a cabo el emparejamiento con las gafas y cuando el emparejamiento se completa, registrar la información de emparejamiento de las gafas tal como la información de identificación de las gafas. En consecuencia, el aparato de visualización puede emparejar la temporización de visualización de los respectivos contenidos y la información respecto las gafas, y transmitir el paquete de transmisión a las gafas basándose en la información de identificación de las gafas previamente almacenada en el emparejamiento.
Sin embargo, una forma de realización a modo de ejemplo no se limita al método anterior; y en consecuencia, el aparato de visualización puede generar señales de sincronismo de otras formas.
Mientras tanto, si las gafas reciben el paquete de transmisión, las gafas pueden comprobar la temporización de visualización en el paquete de transmisión recibido. De acuerdo con la temporización de visualización, las gafas pueden activar o desactivar el cristal obturador del ojo izquierdo y el cristal obturador del ojo derecho.
En consecuencia, el usuario que lleva puestas las gafas puede visionar únicamente el contenido que se visualiza en el punto temporal de activar el cristal obturador del ojo izquierdo y del ojo derecho, de entre la pluralidad de contenidos visualizados alternadamente en el aparato de visualización.
Como se ha explicado antes, en S550 y S560, si se introduce un comando para visualizar OSD desde el dispositivo de entrada, el aparato de visualización, que funciona para generar y transmitir las señales de sincronismo a las gafas, puede añadir la información OSD a uno de entre la pluralidad de contenidos que corresponde al comando para visualizar OSD y visualizar el resultado. Específicamente, mediante las gafas que el usuario lleva puestas, el usuario puede visionar uno de entre la pluralidad de contenidos que se visualizan alternadamente en el aparato de visualización. Mientras visiona los contenidos, el usuario puede solicitar la información OSD usando un dispositivo de entrada. El dispositivo de entrada puede ser por lo menos uno de entre la unidad de control remoto y las gafas. La información OSD puede incluir por lo menos un menú OSD para cambiar los atributos de visualización de por lo menos un contenido de entre la pluralidad de contenidos recibidos. En una forma de realización a modo de ejemplo, la información OSD puede incluir un menú OSD de ajuste de pantalla para la optimización del tamaño y brillo de una pantalla sobre la que se visualiza el contenido, o un menú OSD de ajuste de canal.
En consecuencia, si se introduce un comando para visualizar OSD, solicitando con ello la información OSD, el aparato de visualización puede añadir la información OSD a uno de entre la pluralidad de contenidos que corresponde al comando para visualizar OSD introducido y visualizar el resultado.
En una forma de realización a modo de ejemplo, mientras los fotogramas de imagen del contenido 1 y del contenido 2 se visualizan alternativamente, el usuario puede seleccionar el contenido al que añadir la información OSD y solicitar la información OSD usando los botones de entrada previstos en la unidad de control remoto. Por ejemplo si el usuario introduce un comando para seleccionar el contenido 1 y solicitar información OSD, la unidad de control remoto puede transmitir el comando para visualizar la OSD incluyendo el comando para seleccionar el contenido 1.
De acuerdo con un comando para seleccionar el contenido 1 incluido en un comando para visualizar la OSD, el aparato de visualización puede procesar para visualizar información OSD junto con los fotogramas de imagen del contenido 1, de entre los fotogramas de imagen de los contenidos 1, 2 actualmente visualizados alternativamente. Subsecuentemente, el aparato de visualización puede visualizar alternativamente los fotogramas de imagen del contenido 1 a los cuales se les añade información OSD, y los fotogramas de imagen del contenido 2. En consecuencia, de entre el usuario que visiona el contenido 1 con las gafas y el usuario que visiona el contenido 2 con otras gafas, solo el usuario que visiona el contenido 1 con las gafas puede ver la información OSD.
Mientras tanto, de acuerdo con un aspecto adicional de la forma de realización a modo de ejemplo, el aparato de visualización puede almacenar información respecto una pluralidad de dispositivos de entrada. La pluralidad de dispositivos de entrada puede ser la unidad de control remoto o las gafas. En consecuencia, la información de la pluralidad de dispositivos de entrada almacenada en el aparato de visualización puede ser la información de identificación de la pluralidad de unidades de control remoto o la información de identificación de la pluralidad de gafas.
Si se introduce un comando para visualizar la OSD desde uno de la pluralidad de dispositivos de entrada, el aparato de visualización puede añadir información OSD a uno de entre la pluralidad de contenidos que se determina para corresponder al dispositivo de entrada que transmite el comando para visualizar OSD usando la información de identificación de la pluralidad de dispositivos de entrada, y visualizar el resultado.
En una forma de realización a modo de ejemplo, el aparato de visualización puede almacenar la identificación de una pluralidad de gafas y visualizar alternativamente los fotogramas de imagen del contenido 1 y el contenido 2. Mientras tanto, el usuario que visiona el contenido 1 mediante las gafas puede solicitar información OSD usando los botones de entrada previstos en las gafas que él o ella lleva puestas.
De acuerdo con la solicitud de información OSD, las gafas pueden transmitir al aparato de visualización un comando para visualizar OSD incluyendo la información de identificación de las gafas. Si se introduce un comando para visualizar la OSD, el aparato de visualización puede comparar la información de identificación incluida en el comando para visualizar OSD introducido y la información pre-almacenada de la pluralidad de gafas y añadir la información OSD al fotograma de imagen del contenido correspondiente a las gafas que transmiten un comando para visualizar la OSD. Después de eso, el aparato de visualización puede visualizar alternativamente los fotogramas de imagen del contenido 1 con la información OSD añadida y los fotogramas del contenido 2. Como resultado, de entre el usuario que visiona el contenido 1 mediante las gafas y el usuario que visiona el contenido 2 mediante otras gafas, solo el usuario que visiona el contenido 1 es capaz de ver la información OSD.
Mientras tanto, como se ha explicado anteriormente, la información OSD puede incluir por lo menos un menú OSD para cambiar los atributos de visualización de por lo menos un contenido de entre la pluralidad de contenidos recibidos. En una forma de realización a modo de ejemplo, la información OSD puede incluir un menú OSD para ajuste de pantalla para optimizar el tamaño y brillo de una pantalla en la que se visualiza el contenido, o un menú OSD de ajuste de canal. Mientras se visualiza la información OSD incluyendo el menú OSD mencionado antes, el usuario puede introducir un valor de ajuste de usuario mediante un dispositivo de entrada tal como una unidad de control remoto o las gafas que él o ella lleva puestas.
Si el valor de ajuste de usuario se introduce mediante el dispositivo de entrada, el aparato de visualización puede cambiar los atributos de visualización del contenido sobre el cual se visualiza la información OSD, de acuerdo con el valor de ajuste de usuario introducido. En una forma de realización a modo de ejemplo, el usuario que visiona el contenido 1 mediante las gafas puede seleccionar el menú OSD de ajuste de pantalla de entre la pluralidad de menús OSD incluidos en la información OSD que se visualiza junto con el contenido 1, usando sus gafas. En consecuencia, las gafas pueden transmitir al aparato de visualización un comando para visualizar OSD respecto al ajuste de pantalla, y el aparato de visualización puede visualizar los fotogramas de imagen del contenido 1 añadiendo el menú OSD para ajuste de pantalla, de acuerdo con el comando de control de la unidad de control 170.
Al visionar el menú OSD para ajuste de pantalla mediante las gafas que él o ella lleva puestas, el usuario puede cambiar un valor de ajuste para ajustar el tamaño de pantalla, usando los botones de entrada previstos en sus gafas. Si se introduce el valor de ajuste de usuario, las gafas transmiten el valor de ajuste de usuario introducido al aparato de visualización. De acuerdo con el valor de ajuste de usuario introducido mediante las gafas, el aparato de visualización puede ajustar el tamaño de pantalla del contenido 1 sobre el cual se visualiza la información OSD, y visualizar el resultado. En consecuencia, el usuario es capaz de visionar el contenido 1 en el tamaño de pantalla que él o ella ha solicitado.
Las prestaciones del modo multi-vista descrito aquí pueden implementarse en sistemas de visualización usando gafas de tipo pasivo. Por ejemplo, en un modo de vista dual, una imagen de la primera vista y una imagen de la segunda vista con distinta polarización son visualizadas en el mismo fotograma. Esto puede conseguirse con un panel de visualización que usa capas de polarizadoras. El panel de visualización presentando capas polarizadoras puede trabajar en conjunto con gafas polarizadas para permitir a múltiples usuarios el ver distintos contenidos de vídeo simultáneamente. A este respecto, el sistema de visualización emplea unas primeras gafas pasivas que presentan un par de lentes polarizadas en la misma primera dirección, que se adaptan para permitir a un primer portador ver únicamente imágenes de la primera vista visualizadas en el panel de visualización. Y unas segundas gafas pasivas que presentan un par de lentes polarizadas en la misma segunda dirección, que están adaptadas para permitir a un segundo portador ver únicamente imágenes de la segunda vista visualizadas sobre el panel de visualización. La primera y segunda direcciones de polarización son diferente entre sí.
Se observa que cualquier técnica apropiada puede ser usada para visualizar múltiples vistas sobre el mismo fotograma. Por ejemplo, una imagen de la primera vista y una imagen de la segunda vista pueden estar entrelazadas sobre el mismo fotograma en líneas de píxeles alternadas de la primera y segunda vistas tal que las líneas impares en el fotograma de imagen corresponden a la primera vista y las líneas pares corresponden a la segunda vista.
De acuerdo con una forma de realización, cuando el sistema de visualización recibe un comando para visualizar la OSD, la unidad de control del mismo determina cuál de entre la primera y la segunda vista va a visualizar OSD y controla el panel de visualización para visualizar información OSD sobre la vista determinada de entre la primera y segunda vista mientras que no se visualiza información OSD sobre la otra de entre la primera y segunda vista. En respuesta a recibir el comando para visualizar la OSD, una de entre la primera y segunda vista que dispone de información OSD y la otra vista que no dispone de información OSD son visualizadas alternativamente en una forma línea a línea sobre el panel de visualización tal que las líneas de píxeles que representan la primera vista son visibles mediante las primeras gafas pasivas y las líneas de píxeles que representan la segunda vista son visibles mediante las segundas gafas pasivas.
Mientras tanto, programas para implementar los métodos de acuerdo con las formas de realización a modo de ejemplo pueden estar almacenados y usados en varios tipos de medios de grabación.
Específicamente, el código para implementar los métodos puede estar almacenado en varios tipos de medios de grabación de datos legibles por terminal tales como, por ejemplo, RAM (Random Access Memory), memoria flash, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electronically Erasable Programmable ROM), registro, disco duro, disco removible, tarjeta de memoria, memoria USB, o CD-ROM.
Los ejemplos de formas de realización anteriores y sus ventajas son simplemente a modo de ejemplo y no deben interpretarse como limitadoras de la presente invención. Los presentes conceptos pueden ser fácilmente aplicables a otros tipos de aparatos. Así mismo, la descripción de las formas de realización del presente concepto inventivo se pretende que sea ilustrativo, y no que limite el alcance de las reivindicaciones, y varias alternativas, modificaciones, y variaciones serán evidentes para aquellos especialistas en la técnica.

Claims (15)

  1. REIVINDICACIONES
    1. Aparato de visualización apto para funcionar de manera que permite a un primer usuario que lleva puestas unas primeras gafas y a un segundo usuario que lleva puestas unas segundas gafas ver simultáneamente distintos contenidos de vídeo, estando el aparato de visualización caracterizado porque comprende:
    una pluralidad de unidades receptoras aptas para funcionar de manera que reciben una pluralidad de diferentes contenidos incluyendo un primer contenido de vídeo y un segundo contenido de vídeo;
    una unidad de procesado de señal que procesa el primer contenido de vídeo y el segundo contenido de vídeo;
    una unidad de salida incluyendo un panel de visualización que visualiza una primera vista correspondiente al primer contenido de vídeo y una segunda vista correspondiente al segundo contenido de vídeo;
    una unidad de control que determina si se visualiza una información de visualización en pantalla (OSD) en una de entre la primera vista y la segunda vista en respuesta a la recepción de un comando para visualizar la OSD, y la unidad de control controla la unidad de salida para visualizar la información OSD en la vista determinada de entre la primera vista y la segunda vista mientras no se visualiza información OSD en la otra vista de entre la primera vista y la segunda vista,
    en el que, en respuesta a la recepción de un comando para visualizar la OSD, la vista de entre la primera vista y la segunda vista que presenta la información OSD y la otra vista que no presenta información OSD se visualizan en el panel de visualización de forma que las imágenes correspondientes a la primera vista son visionables mediante las primeras gafas y las imágenes correspondientes a la segunda vista son visionables mediante las segundas gafas.
  2. 2. Aparato de visualización según la reivindicación 1, caracterizado porque las primeras gafas y segundas gafas comprenden unas gafas de tipo obturación activa, y
    la primera vista y la segunda vista se visualizan alternativamente de una manera fotograma a fotograma en el panel de visualización de forma que los fotogramas que corresponden a la primera vista son visionables mediante las primeras gafas y los fotogramas correspondientes a la segunda vista son visionables mediante las segundas gafas.
  3. 3.
    Aparato de visualización según la reivindicación 2, caracterizado porque además comprende:
    una unidad de generación de señal de sincronismo que genera señales de sincronismo que sincronizan las primeras gafas y las segundas gafas con la primera vista y segunda vista, respectivamente, de acuerdo con una temporización de visualización; y una unidad de interfaz que transmite las señales de sincronismo a las primeras gafas y las segundas gafas.
  4. 4.
    Aparato de visualización según la reivindicación 3, caracterizado porque las primeras gafas se hacen funcionar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando sobre el panel de visualización fotogramas correspondientes a la primera vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la segunda vista, y
    las segundas gafas se hacen funcionar de acuerdo con las señales de sincronismo de manera que los obturadores de las mismas están simultáneamente abiertos cuando se están visualizando fotogramas correspondientes a la segunda vista y simultáneamente cerrados cuando se están visualizando fotogramas correspondientes a la primera vista.
  5. 5.
    Aparato de visualización según la reivindicación 1, caracterizado porque además comprende una unidad de almacenamiento que almacena información relativa a una pluralidad de dispositivos de entrada que corresponden a cada una de entre la primera vista y la segunda vista,
    en el que, cuando se recibe el comando para visualizar la OSD mediante uno de entre la pluralidad de dispositivos de entrada, se determina cuál de entre la pluralidad de dispositivos de entrada transmitió el comando y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde al dispositivo de entrada de entre la pluralidad de dispositivos de entrada que transmite el comando para visualizar la OSD.
  6. 6.
    Aparato de visualización según la reivindicación 5, caracterizado porque cada uno de entre la pluralidad de dispositivos de entrada comprende una unidad de control remoto.
  7. 7.
    Aparato de visualización según la reivindicación 1, caracterizado porque el comando para visualizar la OSD se introduce mediante una de entre las primeras gafas y las segundas gafas, y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde a una de entre las primeras gafas y las segundas gafas que transmiten el comando para visualizar la OSD.
  8. 8.
    Aparato de visualización según la reivindicación 1, caracterizado porque además comprende una unidad de procesado de OSD que genera la información OSD para ser visualizada en la vista determinada y proporciona la información OSD generada a la unidad de salida,
    en el que la unidad de control selecciona un objetivo de control de entre la pluralidad de vistas de contenidos de acuerdo con una señal remota introducida desde una unidad de control remoto,
    procesa una vista de contenido como el objetivo de control de acuerdo con la señal de control cuando la señal de control se introduce desde la unidad de control remoto en un estado donde una vista de contenido se selecciona como el objetivo de control, y controla la unidad de procesado de OSD para visualizar la información OSD en la vista de contenido que se ha determinado como el objetivo de control cuando el comando para visualizar la visualización de OSD se introduce desde la unidad de control remoto.
  9. 9. Aparato de visualización según la reivindicación 1, caracterizado porque además comprende una unidad de procesado de OSD que genera la información OSD para ser visualizada en la vista determinada y suministra la información OSD generada a la unidad de salida,
    en el que la unidad de control controla la unidad de procesado de OSD para eliminar la información OSD visualizada en la primera vista y para visualizar la información OSD en la segunda vista, cuando se introduce un comando para visualizar OSD respecto a la segunda vista, en un estado donde la información OSD se visualiza en la primera vista.
  10. 10.
    Aparato de visualización según la reivindicación 2, caracterizado porque la información OSD comprende por lo menos un menú OSD para cambiar características de visualización de contenidos, y
    la unidad de control controla la unidad de procesado de señal para cambiar las características de visualización de la vista de contenido donde se visualiza la información OSD de acuerdo con un valor cambiado de ajuste de usuario, cuando el valor de ajuste de usuario se cambia en por lo menos un menú OSD.
  11. 11.
    Aparato de visualización según la reivindicación 1, caracterizado porque la unidad de salida combina una pluralidad de vistas de contenidos en unidades de fotogramas de imagen, y visualiza los resultados.
  12. 12.
    Aparato de visualización según la reivindicación 1, caracterizado porque las primeras gafas y las segundas gafas comprenden unas gafas pasivas, y
    la primera vista y la segunda vista se entrelazan sobre un mismo fotograma de forma que las líneas de píxeles que representan la primera vista son visionables mediante las primeras gafas pasivas que presentan un primer par de lentes polarizadas en una misma primera dirección y las líneas de píxeles que representan la segunda vista son visionables mediante las segundas gafas pasivas que presentan un segundo par de lentes polarizadas en una misma segunda dirección diferente de la primera dirección.
  13. 13.
    Aparato de visualización según la reivindicación 12, caracterizado porque además comprende una unidad de almacenamiento que almacena información relativa a una pluralidad de dispositivos de entrada los cuales corresponden a cada una de entre la primera vista y la segunda vista,
    en el que, cuando el comando para visualizar la OSD se recibe mediante uno de entre la pluralidad de dispositivos de entrada, se determina cuál de entre la pluralidad de dispositivos de entrada transmitió el comando y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde al dispositivo de entre la pluralidad de dispositivos de entrada que transmite el comando para visualizar la OSD.
  14. 14. Aparato de visualización según la reivindicación 13, caracterizado porque cada uno
    5 de entre la pluralidad de dispositivos de entrada comprende una unidad de control remoto.
  15. 15. Aparato de visualización según la reivindicación 13, caracterizado porque el comando para visualizar la OSD se introduce mediante unas de entre las primeras gafas
    10 y las segundas gafas, y la información OSD se visualiza en una de entre la primera vista y la segunda vista que corresponde a unas de entre las primeras gafas y las segundas gafas que transmiten el comando para visualizar la OSD.
ES201450002A 2011-12-30 2012-11-23 Aparato de visualización Active ES2492865B2 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110147298 2011-12-30
KR10-2011-0147298 2011-12-30
KR10-2012-0077278 2012-07-16
KR1020120077278A KR101309783B1 (ko) 2011-12-30 2012-07-16 디스플레이 장치 및 방법
PCT/KR2012/009987 WO2013100376A1 (en) 2011-12-30 2012-11-23 Apparatus and method for displaying

Publications (3)

Publication Number Publication Date
ES2492865A2 true ES2492865A2 (es) 2014-09-10
ES2492865R1 ES2492865R1 (es) 2014-10-28
ES2492865B2 ES2492865B2 (es) 2015-05-06

Family

ID=47426250

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201450002A Active ES2492865B2 (es) 2011-12-30 2012-11-23 Aparato de visualización

Country Status (9)

Country Link
US (2) US20130169878A1 (es)
EP (1) EP2611162B1 (es)
JP (1) JP2013140355A (es)
KR (1) KR101309783B1 (es)
CN (2) CN202931496U (es)
DE (1) DE202012103877U1 (es)
ES (1) ES2492865B2 (es)
FR (1) FR2985356B3 (es)
WO (1) WO2013100376A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420268B2 (en) 2011-06-23 2016-08-16 Lg Electronics Inc. Apparatus and method for displaying 3-dimensional image
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법
KR101310941B1 (ko) * 2012-08-03 2013-09-23 삼성전자주식회사 복수의 컨텐츠 뷰를 디스플레이하는 디스플레이 장치와 그 컨텐츠 뷰 중 하나에 동기화되어 구동되는 안경 장치 및 그 방법들
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
US9235422B2 (en) 2013-03-13 2016-01-12 Google Technology Holdings LLC Electronic device mode detection
US20150156483A1 (en) * 2013-12-03 2015-06-04 Nvidia Corporation Providing a capability to simultaneously view and/or listen to multiple sets of data on one or more endpoint device(s) associated with a data processing device
US9609436B2 (en) * 2015-05-22 2017-03-28 Microsoft Technology Licensing, Llc Systems and methods for audio creation and delivery
CN106325033A (zh) * 2016-08-22 2017-01-11 京东方科技集团股份有限公司 全息显示装置
EP3301940A1 (en) * 2016-09-30 2018-04-04 Advanced Digital Broadcast S.A. A method and a system for registering shutter glasses in an image generating device
WO2019091565A1 (en) * 2017-11-10 2019-05-16 Ses-Imagotag Gmbh System for synchronized video playback on a number of playback devices
CN108366250B (zh) * 2018-02-06 2020-03-17 深圳市鹰硕技术有限公司 影像显示系统、方法以及数字眼镜
CN113347485A (zh) * 2021-08-04 2021-09-03 深圳佳力拓科技有限公司 一种对应于单台数字电视的多个频道观看的方法和装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11289557A (ja) * 1998-04-02 1999-10-19 Matsushita Electric Ind Co Ltd 画像情報表示方法及び画像情報表示装置
JP2004318121A (ja) * 2003-04-04 2004-11-11 Canon Inc 表示制御装置及び表示システム及びtv装置
JP4845476B2 (ja) 2005-10-21 2011-12-28 シャープ株式会社 表示装置
JP2006184916A (ja) * 2006-01-18 2006-07-13 Fujitsu Ten Ltd 表示装置
JP2008116792A (ja) * 2006-11-07 2008-05-22 Sharp Corp 表示制御装置、映像表示機器及び表示制御方法
BRPI0721452B1 (pt) * 2007-03-16 2020-03-03 Interdigital Ce Patent Holdings Sistema e método para combinar texto com conteúdo de imagem tridimensional
KR20090008788A (ko) * 2007-07-19 2009-01-22 주식회사 현대오토넷 듀얼 뷰 디스플레이 av 시스템
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
US8134591B2 (en) * 2008-05-07 2012-03-13 Eastman Kodak Company Display using bidirectionally scanned linear modulator
MX2011002553A (es) * 2008-09-18 2011-04-04 Panasonic Corp Dispositivo de reproduccion de video estereoscopico y dispositivo de presentacion visual de video estereoscopico.
JP5455042B2 (ja) * 2009-01-14 2014-03-26 群創光電股▲ふん▼有限公司 マルチビュー表示装置
JP5276536B2 (ja) * 2009-07-16 2013-08-28 富士フイルム株式会社 3次元画像表示装置及び3次元画像表示方法
US8413073B2 (en) * 2009-07-27 2013-04-02 Lg Electronics Inc. Providing user interface for three-dimensional display device
JP2011055148A (ja) * 2009-08-31 2011-03-17 Toshiba Corp 映像合成装置、映像表示装置および映像合成方法
KR20110029319A (ko) * 2009-09-15 2011-03-23 삼성전자주식회사 영상 처리 시스템 및 영상 처리 방법
JP4958993B2 (ja) * 2009-11-02 2012-06-20 キヤノン株式会社 映像表示装置及びその制御方法
US9307224B2 (en) * 2009-11-23 2016-04-05 Samsung Electronics Co., Ltd. GUI providing method, and display apparatus and 3D image providing system using the same
CN101713832A (zh) * 2009-11-26 2010-05-26 上海大学 非均匀大气程辐射遥感数字图像的计算机生成方法
KR101626742B1 (ko) * 2009-12-31 2016-06-03 엘지디스플레이 주식회사 멀티 영상 표시 시스템
KR20110086415A (ko) * 2010-01-22 2011-07-28 엘지전자 주식회사 3d 영상의 화질을 설정할 수 있는 영상표시장치 및 그 동작 제어방법
EP2536155B1 (en) * 2010-02-10 2017-03-29 LG Electronics Inc. Image display method and apparatus
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same
MX2012011008A (es) * 2010-03-25 2012-11-23 Sharp Kk Dispositivo de visualizacion, receptor de television, metodo de cotrol de dispositivo de visualizacion, programa, y medio de grabacion.
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
EP2385706A1 (en) * 2010-05-03 2011-11-09 LG Electronics Image display device, viewing device and methods for operating the same
FR2959576A1 (fr) * 2010-05-03 2011-11-04 Thomson Licensing Procede d’affichage d’un menu de reglage et dispositif correspondant
CN102253495B (zh) * 2010-05-18 2013-10-30 京东方科技集团股份有限公司 双视显示设备和系统
KR101435594B1 (ko) * 2010-05-31 2014-08-29 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법
KR20120020477A (ko) * 2010-08-30 2012-03-08 삼성전자주식회사 입체영상표시장치 및 그 구동 방법
KR101309783B1 (ko) * 2011-12-30 2013-09-23 삼성전자주식회사 디스플레이 장치 및 방법

Also Published As

Publication number Publication date
EP2611162B1 (en) 2014-08-27
FR2985356B3 (fr) 2014-04-18
KR20130079111A (ko) 2013-07-10
US20150035958A1 (en) 2015-02-05
KR101309783B1 (ko) 2013-09-23
ES2492865B2 (es) 2015-05-06
CN202931496U (zh) 2013-05-08
JP2013140355A (ja) 2013-07-18
FR2985356A3 (fr) 2013-07-05
US20130169878A1 (en) 2013-07-04
ES2492865R1 (es) 2014-10-28
DE202012103877U1 (de) 2012-11-28
WO2013100376A1 (en) 2013-07-04
EP2611162A1 (en) 2013-07-03
CN103188454A (zh) 2013-07-03

Similar Documents

Publication Publication Date Title
ES2492865B2 (es) Aparato de visualización
KR20140007703A (ko) 영상 디스플레이 장치 및 메뉴 디스플레이 방법
US9247240B2 (en) Three-dimensional glasses, three-dimensional image display apparatus, and method for driving the three-dimensional glasses and the three-dimensional image display apparatus
EP2685734A2 (en) Image display apparatus, method for displaying image and glasses apparatus
JP2014107870A (ja) マルチビューディスプレイを行うディスプレイ装置および方法
US8957950B2 (en) Electronic apparatus and image output method
KR20120020477A (ko) 입체영상표시장치 및 그 구동 방법
CN103188511A (zh) 显示装置及其控制方法
US9392251B2 (en) Display apparatus, glasses apparatus and method for controlling depth
JP2011229134A (ja) 立体映像表示装置、立体映像表示システム
JP2012142752A (ja) 立体視映像処理装置及び立体視映像処理方法
KR101722213B1 (ko) 3d 영상 컨버팅 시스템
JP5562452B2 (ja) 表示方法、表示プログラム
KR101315988B1 (ko) 디스플레이 영상 시청용 안경 장치
US20120069161A1 (en) 3d glasses and 3d display apparatus using ir signal and rf signal
US20140145911A1 (en) Display apparatus and method of controlling the same
KR20120133876A (ko) 삼차원 영상물 재생 및 시청 방법과 시스템
KR20110057961A (ko) 디스플레이 장치 및 이에 적용되는 3d 영상 미리보기 제공 방법, 그리고 3d 영상 제공 시스템
KR20130077745A (ko) 디스플레이 장치 및 그를 이용한 멀티 뷰 제공 방법
KR20120115642A (ko) 다영상 표출 기능을 갖는 디스플레이 장치

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2492865

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20150506