ES2537073T3 - Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica - Google Patents

Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica Download PDF

Info

Publication number
ES2537073T3
ES2537073T3 ES09827327.9T ES09827327T ES2537073T3 ES 2537073 T3 ES2537073 T3 ES 2537073T3 ES 09827327 T ES09827327 T ES 09827327T ES 2537073 T3 ES2537073 T3 ES 2537073T3
Authority
ES
Spain
Prior art keywords
plane
video
compensation
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09827327.9T
Other languages
English (en)
Inventor
Ken Yamashita
Germano Leichsenring
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Application granted granted Critical
Publication of ES2537073T3 publication Critical patent/ES2537073T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

Un aparato de reproducción que realiza reproducción estereoscópica, que comprende: un decodificador de vídeo (5a, 5b) que puede utilizarse para obtener fotogramas de vídeo decodificando un flujo de vídeo; y una memoria de plano de imagen (8) que almacena en la misma datos de subtítulo que tienen una resolución de un número predeterminado de píxeles horizontales y verticales; el aparato de reproducción caracterizado por comprender adicionalmente una unidad de almacenamiento de compensación (41) que almacena en la misma una compensación que indica un número de longitudes de píxeles para desplazar las coordenadas de píxeles en datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) en una dirección izquierda y una dirección derecha para realizar reproducción estereoscópica; un motor de desplazamiento (20) que puede utilizarse para desplazar las respectivas coordenadas de los datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) horizontalmente mediante la distancia de desplazamiento basándose en la compensación; y una unidad de composición (16) que puede utilizarse para componer los fotogramas de vídeo obtenidos con los datos de subtítulo en los que las coordenadas de los píxeles se han desplazado en las mismas, en donde la compensación está pre-incluida en el flujo de vídeo; la unidad de almacenamiento de compensación (41) almacena la compensación pre-incluida en el flujo de vídeo; y cuando se cambia un factor de escalado de los fotogramas de vídeo a componer a un valor distinto de 1, la distancia de desplazamiento del motor de desplazamiento (20) está basada en un valor obtenido multiplicando la compensación por el factor de escalado.

Description


15
25
35
45
55
65
E09827327
18-05-2015
DESCRIPCIÓN
Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica
Campo de la invención
La presente invención pertenece al campo técnico de la reproducción estereoscópica.
La tecnología de reproducción estereoscópica introduce un mecanismo para mostrar diferentes imágenes al ojo izquierdo y al ojo derecho, y usa una paralaje entre los ojos para crear la ilusión de un vídeo estereoscópico.
Aunque actualmente la aplicación convencional de la tecnología de reproducción estereoscópica se usa en cines y similares, se espera que se extienda rápidamente un modo de uso para disfrutar la reproducción estereoscópica en un aparato de reproducción o una visualización en el hogar en el futuro cercano.
Existen diversos métodos para presentar un vídeo estereoscópico a usuarios (visualización estereoscópica). Por ejemplo, un método común es usar gafas de obturador. En este método, las gafas de obturador bloquean alternativamente un campo de visión del ojo izquierdo del espectador y a continuación el campo de visión del ojo derecho del espectador a alta velocidad, mientras que se actualiza alternativamente una imagen de visualización para el ojo izquierdo y una imagen de visualización para el ojo derecho a alta velocidad en sincronización con la operación de bloqueo de las gafas de obturador. Esta operación da como resultado que la imagen para el ojo izquierdo en la visualización sea únicamente visible para el ojo izquierdo, y la imagen para el ojo derecho en la visualización sea visible únicamente para el ojo derecho.
Para permitir a los espectadores visualizar el vídeo estereoscópico a la misma velocidad de fotogramas que el vídeo monoscópico normal, el aparato de reproducción debe reproducir dos vídeos para que se observen respectivamente mediante el ojo derecho y el ojo izquierdo, y la visualización requiere un rendimiento de respuesta dos veces tan alta como el rendimiento de respuesta necesaria para el vídeo monoscópico normal. Esto significa, por ejemplo, que es necesario cambiar entre al menos 120 fotogramas por segundo para visualizar vídeo que consiste en 60 fotogramas por segundo. La bibliografía de Patente 1 indicada a continuación es la tecnología convencional que desvela un aparato de reproducción para uso doméstico y la bibliografía de patente 2 es la tecnología convencional que desvela la reproducción estereoscópica. La bibliografía de patente 3 desvela un enfoque para crear vídeo estereoscópicos aplicando un mapa de profundidad a un flujo de vídeo monoscópico. La bibliografía de patente 4 conecta la visualización de los datos de gráficos estereoscópicos con datos de vídeo.
[Bibliografía de patente]
[Bibliografía de patente 1]
Publicación Internacional Nº 2005/119675
[Bibliografía de patente 2]
Publicación de Patente de Estados Unidos Nº 2008-0192067
[Bibliografía de patente 3]
documento EP 1 578 142
[Bibliografía de patente 4]
documento EP 0 905 988
Cuando se considera la grabación y distribución de medios de grabación, tales como discos ópticos, de trabajos de películas que pueden visualizarse estereoscópicamente, existe un desacuerdo acerca de cómo realizar un vídeo compuesto, en el que los gráficos tales como subtítulos y la GUI en las imágenes en movimiento están compuestos.
Un método es preparar un flujo de vídeo del ojo izquierdo y uno del ojo derecho, preparar por separado los subtítulos del ojo izquierdo y los subtítulos del ojo derecho, y superponer cada subtítulo en un flujo de vídeo correspondiente.
El segundo método es, como se desvela en la bibliografía de patente 2, un método que usa un flujo de vídeo e información de profundidad que corresponde al flujo de vídeo para proporcionar un efecto estereoscópico al vídeo, y superponer un objeto de subtítulo en el vídeo. En la bibliografía de patente 2, usar cero paralaje, es decir, eliminar profundidad, cuando se visualiza la porción de vídeo en la que los subtítulos se solapan posibilita evitar que se proporcione a los espectadores una sensación de diferencia en profundidad entre los subtítulos y el vídeo.
En el tercer método, un flujo de vídeo del ojo izquierdo y un flujo de vídeo del ojo derecho se preparan con antelación, un objeto de subtítulo se prepara para ambos flujos, y produciendo un desplazamiento de plano basándose en información de profundidad, se superpone un subtítulo con un efecto estereoscópico en cada flujo de vídeo.
En el primer método, puesto que no debe crearse únicamente el flujo de vídeo, sino también el flujo de gráficos para subtítulos y la GUI para tanto la vista izquierda como derecha, la carga de autoría es grande. En contraste, en el
15
25
35
45
55
65
E09827327
18-05-2015
segundo método, no es necesario crear los flujos de gráficos izquierdo y derecho para visualización de subtítulos, y por lo tanto la carga de autoría se reduce. Sin embargo, puesto que se pierde la sensación de profundidad en la porción donde solapa el subtítulo con el flujo, el efecto visual no es ideal.
En el tercer método que usa desplazamiento de plano, no es necesario crear tanto los flujos gráficos de la vista izquierda como derecha para subtítulos y la GUI, y también la sensación de la profundidad no se pierde en la porción donde los subtítulos o la GUI solapan el vídeo, por lo que esto es lo más ideal. Sin embargo, cuando se ejecuta una función de escalado para ampliar y reducir la pantalla que está visualizándose, aparecen efectos negativos.
Cuando se ejecuta una vista estereoscópica de un flujo de vídeo reproduciendo un vídeo para observarse desde una vista izquierda y un vídeo para observarse desde una vista derecha, incluso cuando se realiza escalado, puesto que simplemente se amplía o reduce el vídeo para observarse desde una vista izquierda y el vídeo para observarse desde la vista derecha, no hay impedimento para vista estereoscópica.
Sin embargo puesto que se comparten los gráficos usados para la vista izquierda y la vista derecha, aunque el texto se reduce debido al escalado, la posición del texto permanece igual que antes del escalado, y se conserva la profundidad del texto de subtítulo. Esto da como resultado un caso en el que aunque se ha reducido la profundidad del vídeo, el subtítulo permanece igual, y existe una diferencia de nitidez en el efecto estereoscópico entre el vídeo y los subtítulos/GUI durante el escalado.
Antes y después del escalado, si se mantiene un intervalo entre el subtítulo para la vista izquierda y el subtítulo para la vista derecha, y únicamente cambia la profundidad del vídeo, el punto hasta el que el vídeo sale es idéntico al punto hasta el que el subtítulo sale, y en comparación con antes del escalado, los subtítulos se han desplazado enormemente después del escalado en relación con un plano de vídeo. Como resultado, existe un riesgo de molestia para el espectador debido a la diferencia de nitidez en el efecto estereoscópico entre el vídeo y los subtítulos. Desde el punto de vista para proteger a los consumidores, esto es indeseable puesto que aumenta significativamente el cansancio ocular en los espectadores.
En un aparato de reproducción que usa desplazamiento de plano, el problema anteriormente descrito no ocurre si se prohíbe el escalado cuando los subtítulos están compuestos con el vídeo. Sin embargo, en aparatos de reproducción existentes, por ejemplo cuando reproducen un vídeo a pantalla completa, cuando se realiza una operación de llamada de menú, se realiza el procesamiento para visualizar un menú de pantalla, y por encima de esto, para visualizar un vídeo que se ha escalado para que sea más compacto. La razón para esto es que este procesamiento posibilita ampliar el campo de visión del menú sin molestar la visualización del vídeo. El procesamiento de la GUI realizado junto con el escalado de vídeo aumenta el campo de visión del menú y conserva la comodidad del usuario, e incluso para realizar el efecto estereoscópico, abreviar el procesamiento de la GUI junto con el escalado significa retroceso desde el punto de vista de la comodidad de los aparatos de reproducción de discos ópticos, y no puede considerarse una idea ventajosa para la industria.
El objetivo de la presente invención es proporcionar un aparato de reproducción que cumple con la protección del consumidor mientras que mejora el realismo y realiza el procesamiento de la GUI con escalado de vídeo.
Esto se consigue mediante las características de las reivindicaciones independientes.
Configurado como anteriormente, el aparato de reproducción de vídeo estereoscópico de la presente invención puede ajustar la distancia de desplazamiento mediante la que un subtítulo se desplaza durante el escalado de un vídeo con el subtítulo. Como resultado, cuando se realiza el procesamiento de la GUI con escalado, esto posibilita conservar el equilibrio de profundidad entre el vídeo y el subtítulo incluso después de que se realiza escalado, y evitar la aparición del cambio no natural de la estructura estereoscópica. Por lo tanto, el vídeo y el subtítulo se visualizan de una manera más natural, y puede aliviarse la fatiga ocular del espectador, posibilitando por lo tanto asegurar la protección del consumidor desde cualquier ángulo.
Aunque son opcionales, pueden conseguirse efectos adicionales realizando las siguientes modificaciones en los medios anteriormente descritos para resolver el problema.
Puede realizarse un método de tabla de cálculo, de modo que se usa una tabla para el cálculo para transformar la compensación de plano a valores de coordenadas. Haciendo esto, la profundidad de los subtítulos puede cambiarse mediante dispositivos con bajos recursos.
Adicionalmente, cuando se escala el vídeo con el subtítulo, el aparato de reproducción de vídeo estereoscópico puede configurarse para ajustar una distancia de desplazamiento del plano de vídeo. Desplazar el plano de vídeo puede evitar una diferencia de nitidez en el efecto estereoscópico, aliviar la fatiga ocular y producir que el vídeo y el subtítulo se visualicen de una manera más natural.
Adicionalmente, cuando se escala el vídeo con un subtítulo, el aparato de reproducción de vídeo estereoscópico puede configurarse para ajustar gradualmente la distancia de desplazamiento por la que el subtítulo de desplaza
15
25
35
45
55
65
E09827327
18-05-2015
para cada fotograma. De esta manera, la diferencia entre el efecto estereoscópico del vídeo y la del subtítulo no se hace grande. Ya que el vídeo y el subtítulo se visualizan de una manera más natural, puede aliviarse la fatiga ocular del espectador.
Adicionalmente, cuando se escala el vídeo con un subtítulo, el aparato de reproducción de vídeo estereoscópico puede configurarse para deshabilitar temporalmente la visualización del subtítulo. Cuando ha pasado un periodo de tiempo predeterminado, es decir, cuando los ojos del usuario se han acostumbrado a la diferencia entre el efecto estereoscópico del vídeo pre-escalado y la del vídeo post-escalado, se visualiza el subtítulo. De esta manera, la diferencia entre el efecto estereoscópico del vídeo y el del subtítulo no se hace grande. A medida que el vídeo y el subtítulo se visualizan de una manera más natural, puede aliviarse la fatiga ocular del espectador.
La Figura 1 muestra un patrón de uso de un medio de grabación y un aparato de reproducción. La Figura 2 muestra una estructura interna de un BD-ROM 100. La Figura 3 muestra una estructura interna de un objeto de BD-J. La Figura 4 muestra una estructura interna del aparato de reproducción. La Figura 5 muestra cambiar entre un modo de visualización de 2D y un modo de visualización de 3D. La Figura 6 muestra un ejemplo de procesamiento de composición cuando un modo estéreo de cada plano está CONECTADO, y un ejemplo de procesamiento de composición cuando un modo estéreo de cada plano está DESCONECTADO, en el modo de presentación de 3D. La Figura 7 muestra cómo los datos en un plano de fondo 11, los datos en un plano de vídeo, los datos en un plano de imagen 8 y los datos en un plano de gráficos interactivos 10 se solapan cuando los modos estéreo de todos los planos están CONECTADOS. La Figura 8 muestra cómo los datos en un plano de fondo 11, los datos en el plano de vídeo, los datos en el plano de imagen 8 y los datos en el plano de gráficos interactivos 10 se solapan cuando los modos estéreo de todos los planos están DESCONECTADOS. La Figura 9 muestra un resultado de composición para cada plano. La Figura 10 muestra un ejemplo donde se visualiza una imagen que se emite cuando los modos estéreo de todos los planos están CONECTADOS en una visualización de 3D. La Figura 11 muestra un ejemplo de cómo aparece el vídeo estereoscópico cuando el espectador observa, a través de las gafas 500 de obturador, se visualiza una imagen que se emite cuando el modo estéreo del plano de vídeo 6 está CONECTADO, y los modos estéreo de otros planos están DESCONECTADOS. La Figura 12A y Figura 12B muestran una imagen en un plano de gráficos Izquierdo Desplazado desplazado en una dirección derecha, y una imagen en un plano de gráficos Izquierdo Desplazado desplazado en una dirección izquierda, respectivamente. La Figura 13A, Figura 13B y Figura 13C ilustran el principio de cómo una imagen parece estar más cerca del espectador que la pantalla de visualización cuando el signo de la compensación de plano es positivo (la imagen de gráficos de la vista izquierda se desplaza en la dirección derecha, y la imagen de gráficos de la vista derecha se desplaza en la dirección izquierda). La Figura 14A, Figura 14B y Figura 14C ilustran el principio de cómo una imagen parece estar más lejos del espectador que la pantalla de visualización cuando el signo del desplazamiento del plano es negativo (la imagen de gráficos de la vista izquierda se desplaza en la dirección izquierda, y la imagen de gráficos de la vista derecha se desplaza en la dirección derecha). La Figura 15A y Figura 15B muestran ejemplos de diferencias en la vista entre compensaciones de plano positivas y negativas. La Figura 16A ilustra un ejemplo de procesamiento específico en la etapa S704b y la Figura 16B ilustra un ejemplo de procesamiento específico en la etapa S706b. La Figura 17 muestra una imagen estereoscópica ejemplar visualizada mediante un usuario cuando se ha realizado escalado en una imagen en movimiento. La Figura 18A, Figura 18B y Figura 18C muestran cómo se determina una compensación de plano en un desplazamiento de plano cuando se realiza escalado en una imagen en movimiento. La Figura 19 muestra una imagen estereoscópica cuando una compensación de plano usada para componer con una imagen en movimiento antes de que se aplique escalado a un desplazamiento de plano en un plano de imagen. La Figura 20 muestra una imagen estereoscópica cuando una compensación de plano usada para componer con una imagen en movimiento antes de que se aplique escalado a un desplazamiento de plano en un plano de imagen. La Figura 21 muestra una estructura interna de un motor de desplazamiento de plano 20 del aparato de reproducción 200 de acuerdo con la realización 1. La Figura 22A, Figura 22B y Figura 22C muestran tres factores de escalado de 1/1, 1/2, 1/4 e imágenes compuestas de gráficos que incluyen subtítulos y GUI en casos cuando se aplican los factores de escalado. La Figura 23A y Figura 23B muestra cómo se calculan las compensaciones cuando los factores de escalado se establecen como 1/1, 1/2 y 1/4. La Figura 24A y Figura 24B muestran tres factores de escalado de 1/1, 1/2, 1/4 e imágenes compuestas de gráficos de subtítulo en casos cuando se aplican los factores de escalado. La Figura 25A y Figura 25B muestran cómo se calculan las compensaciones en un plano de imagen cuando los factores de escalado se establecen como 1/1, 1/2 y 1/4.
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
La Figura 26A y Figura 26B muestran una estructura interna de un plano de imagen 8. La Figura 27A, Figura 27B y Figura 27C muestran trozos de datos de píxeles en un área de primer plano y trozos de datos de píxeles en un área de fondo después de que un motor de desplazamiento de plano 20 desplaza las coordenadas de cada trozo de datos de píxeles en la dirección derecha, y desplaza las coordenadas de cada trozo de datos de píxeles en la dirección izquierda. La Figura 28A y Figura 28B muestran una estructura interna del plano de gráficos interactivos 10. La Figura 29A, Figura 29B y Figura 29C muestran trozos de datos de píxeles en un área de primer plano y trozos de datos de píxeles en un área de fondo después de que el motor de desplazamiento de plano 20 desplaza las coordenadas de cada trozo de datos de píxeles en la dirección derecha, y desplaza las coordenadas de cada trozo de datos de píxeles en la dirección izquierda. La Figura 30A, Figura 30B y Figura 30C muestran procedimientos de procesamiento para desplazar las coordenadas de cada trozo de datos de píxeles mantenidos en el plano de imagen 8. La Figura 31A, Figura 31B y Figura 31C muestran procedimientos de procesamiento para desplazar las coordenadas de cada trozo de datos de píxeles mantenidos en el plano de gráficos interactivos 10. La Figura 32 muestra trozos de datos de píxeles en el plano de gráficos. Cada una de la Figura 33A y Figura 33B muestran qué se mantiene en el plano de gráficos después de que el motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los trozos de datos de píxeles. La Figura 34 muestra una estructura interna de una unidad de plataforma de BD-J. La Figura 35 muestra qué se almacena en una unidad de almacenamiento de modo de visualización 29. La Figura 36 muestra un diagrama de flujo que muestra procedimientos de procesamiento para ajuste de modo de visualización cuando se cambia un título. La Figura 37 muestra un diagrama de flujo que muestra procedimientos de procesamiento para ajuste de modo de visualización en cada título. La Figura 38 es un diagrama de flujo que muestra un procedimiento principal ejemplar para reproducir una Lista de Reproducción (PlayList) en modo de BD-J. La Figura 39 muestra un diagrama de flujo que muestra procedimientos principales para reproducir una Lista de Reproducción. La Figura 40 muestra un diagrama de flujo que muestra procedimientos de reproducción basándose en información de Elemento de Reproducción (PlayItem). La Figura 41 muestra un diagrama de flujo que muestra procedimientos de reproducción para procesamiento del ojo izquierdo en modo de visualización de 3D. La Figura 42 es un diagrama de flujo que muestra procedimientos de procesamiento para procesamiento del ojo derecho. La Figura 43A y Figura 43B son diagramas de flujo que muestran procedimientos detallados para decodificar datos de imagen, escribir datos de imagen al plano de imagen, decodificar datos de vídeo y escribir datos de vídeo al plano de vídeo 6. La Figura 44A y Figura 44B son diagramas de flujo que muestran un estado de visualización, y procedimientos de procesamiento para un desplazamiento de plano en un plano de imagen en un caso de re-calcular una compensación de plano y un desplazamiento de plano del plano de gráficos interactivos. La Figura 45 es un diagrama de flujo que muestra procedimientos de procesamiento en un caso cuando se ha realizado llamada de API de escalado. La Figura 46 es un diagrama de bloques que muestra una estructura interna de un motor de desplazamiento de plano 20 del aparato de reproducción en la segunda realización. La Figura 47A y Figura 47B son diagramas de flujo que muestran un procedimiento de reproducción para procesamiento de desplazamiento del plano de vídeo 6. La Figura 48A y Figura 48B muestran circunstancias en las que se pretende mover coordenadas de imágenes en movimiento y gráficos que se han escalado mediante un número predeterminado de longitudes de píxeles. La Figura 49 es un diagrama de bloques que muestra una estructura interna de un motor de desplazamiento de plano 20 del aparato de reproducción en la realización 3. La Figura 50 es un diagrama de flujo que muestra procedimientos de procesamiento de una visualización de 3D de un flujo 3 DAV. La Figura 51 es un diagrama de flujo que muestra procedimientos de procesamiento de un desplazamiento de plano de un plano de imagen. La Figura 52 muestra cómo cambia una compensación de fotograma cuando se actualiza un número actualizado de fotogramas i a “1”, “2” y “3”, respectivamente. La Figura 53 muestra una estructura parcial relacionada con ajustar una compensación de fotograma. La Figura 54 muestra una estructura de hardware del aparato de reproducción.
[Descripción de las realizaciones]
[Realización 1]
Un medio de grabación y un aparato de reproducción que incluye los medios anteriormente descritos para resolver el problema se describen a continuación como realizaciones de la presente invención con referencia a los dibujos.
15
25
35
45
55
65
E09827327
18-05-2015
La Figura 1 muestra un patrón de uso del medio de grabación y del aparato de reproducción. Como se muestra en la Figura 1, un BDROM 100 como un ejemplo de medio de grabación y un aparato de reproducción 200 componen un sistema de cine en casa junto con un control remoto 300, una televisión 400 y gafas de obturador de cristal líquido 500, y se usan mediante un usuario.
El BD-ROM 100 proporciona el sistema de cine en casa anteriormente indicado, por ejemplo, con una película.
El aparato de reproducción 200 está conectado a la televisión 400 y reproduce el BD-ROM 100. Existe un vídeo de 2D y un vídeo de 3D entre vídeos de reproducción a reproducir. El vídeo de 2D es, por ejemplo, cuando un plano que incluye una pantalla de visualización de un aparato de visualización se toma como un plano X-Y, una imagen visualizada como píxeles en posiciones en la pantalla de visualización, y se denomina también un vídeo monoscópico.
En contraste, un vídeo de 3D es un vídeo en el que aparecen los elementos en el plano X-Y en la pantalla de visualización del aparato de visualización, usando la estructura descrita en la presente realización, más hacia delante o hacia atrás de la pantalla de visualización, en relación con una línea recta que intersecta con un plano tomado como el plano X-Y como un eje (en la presente realización, definido como un eje que es una línea vertical recta al plano X-Y (eje Z)).
Cuando el vídeo es de 3D, por ejemplo, un vídeo formado cuando los datos correspondientes (datos de flujo) de un vídeo de la vista izquierda a visualizar mediante un ojo izquierdo y un vídeo de la vista derecha a visualizar mediante un ojo derecho se graba en un medio de grabación que puede leerse mediante un sistema de ficheros virtual 3 mostrado en la Figura 4, descrito más adelante (por ejemplo, un BD-ROM 100 o un almacenamiento 1b local mostrado en la en la Figura 4, y en este punto por simplicidad el BD-ROM 100 se describe como un ejemplo), y el punto de la paralaje entre los dos ojos produce una vista diferente entre la vista derecha a visualizar mediante el ojo derecho y la vista izquierda a visualizar mediante el ojo izquierdo, se repite una operación en la que se muestra el vídeo de la vista izquierda al ojo izquierdo únicamente, y se muestra el vídeo del ojo derecho al ojo derecho únicamente, y el vídeo parece como una imagen estereoscópica que tiene profundidad para el ojo humano, que puede visualizarse para el usuario. Sin embargo, cuando únicamente se usa uno del vídeo de la vista izquierda y del vídeo de la vista derecha para reproducción, el vídeo simplemente parece monoscópico para el ojo humano. Por ejemplo mostrando el vídeo de la vista izquierda para tanto el ojo derecho como el ojo izquierdo, el vídeo de la vista izquierda parece simplemente como un vídeo monoscópico para el ojo humano.
El control remoto 300 es un dispositivo que recibe una operación para la GUI jerarquizada desde el usuario. Para recibir una operación de este tipo, el control remoto 300 incluye: una tecla de menú para llamar a menús que componen la GUI; una tecla de flecha para mover un foco de las partes de la GUI que componen cada menú; una tecla de decisión para realizar una operación de determinación en las partes de la GUI que componen cada menú; una tecla de retorno para volver a menús jerarquizados de orden superior; y una tecla numérica.
La TV 400 proporciona el usuario con un entorno operacional de diálogo visualizando la imagen de reproducción de la película, un menú y similares. La pantalla de visualización de la televisión 400 en la Figura 1 es un ejemplo para escalar un vídeo y visualizar una GUI a pantalla completa. En la pantalla de la televisión 400, la mitad derecha presenta un comentario cm 1 del director escrito por el director de la película.
En la pantalla de la televisión 400, la mitad de la parte inferior incluye un elemento bn1 de botón para recibir una instrucción de “salto siguiente” o “salto anterior”, un elemento bn2 de botón para recibir una llamada de menú, un elemento bn3 de botón para recibir una operación de retorno y un elemento bn4 de botón para recibir una conexión de red. La mitad de la parte inferior incluye también un indicador ir1 para visualizar el número del título actual y el número del capítulo actual. Estos elementos de botón pueden operarse mediante el control remoto 300.
Las gafas de obturador de cristal líquido 500 están compuestas de obturadores de cristal líquido y una unidad de control, y realizan vista estereoscópica con el uso de disparidad binocular de los ojos del espectador. Teniendo las lentes una característica que la transmitancia de la luz se cambia cambiando la tensión aplicada que se usa para los obturadores de cristal líquido de las gafas de obturador de cristal líquido 500. La unidad de control de las gafas de obturador de cristal líquido 500 recibe una señal de SINCRONIZACIÓN (SYNC) para cambiar entre una imagen de la vista derecha y una imagen del ojo izquierdo que se transmiten desde el aparato de reproducción 200 y cambia entre un primer estado y un segundo estado de acuerdo con esta señal de SINCRONIZACIÓN.
En el primer estado, la unidad de control ajusta la tensión aplicada de modo que la luz no se transmite a través de una lente de cristal líquido que corresponde a la vista derecha, y ajusta la tensión aplicada de modo que la luz se transmite a través de una lente de cristal líquido que corresponde a la vista izquierda. En un estado de este tipo, únicamente se visualiza la imagen de la vista izquierda y no se proporciona la imagen de la vista izquierda al ojo derecho.
En el segundo estado, la unidad de control ajusta la tensión aplicada de manera que la lente de cristal líquido que corresponde a la vista derecha transmite luz, y ajusta la tensión aplicada de manera que la lente de cristal líquido
15
25
35
45
55
65
E09827327
18-05-2015
que corresponde a la vista izquierda no transmite luz. En un estado de este tipo, los obturadores de cristal líquido proporcionan vista de la imagen de la vista derecha, y no se proporciona imagen de la vista derecha al ojo izquierdo.
En general, la imagen de la vista derecha y la imagen de la vista izquierda parecen un poco diferentes debido a diferencias entre los ángulos.
Con el uso de una diferencia de este tipo entre la imagen observada respectivamente mediante el ojo izquierdo y el ojo derecho (en otras palabras, un punto de la paralaje), el usuario puede reconocer una imagen como una imagen estereoscópica. Por lo tanto, el usuario confunde una visualización monoscópica con una visualización estereoscópica sincronizando la temporización de las gafas de obturador de cristal líquido 500 cambiando entre el primer estado y el segundo estado anteriormente indicados con temporización de cambio entre la imagen de la vista derecha y la imagen de la vista izquierda. A continuación, se proporciona una descripción de un intervalo de tiempo al visualizar el vídeo de la vista derecha y el vídeo de la vista izquierda.
Específicamente, existe una diferencia entre la imagen de la vista derecha y la imagen de la vista izquierda que corresponde a la disparidad binocular del usuario en una imagen monoscópica. Visualizando estas imágenes mientras que se cambian las imágenes a un corto intervalo de tiempo, parece como si las imágenes se visualizaran estereoscópicamente.
El corto intervalo de tiempo puede ser un periodo de tiempo simplemente suficiente para producir confundir imágenes monoscópicas con imágenes estereoscópicas cuando se realiza el cambio y la visualización como se ha descrito anteriormente.
Esto concluye la descripción del sistema de cine en casa.
Lo siguiente describe un medio de grabación para reproducirse mediante el aparato de reproducción 200. El aparato de reproducción 200 reproduce el BD-ROM 100. La Figura 2 muestra una estructura interna ejemplar del BD-ROM
100.
El BD-ROM 100 que es un ejemplo del medio de grabación se muestra en una cuarta fila desde la parte superior en la presente figura, y se muestra una pista en el BD-ROM 100 en un tercer nivel. Aunque la pista normalmente está formada en una manera espiral desde una circunferencia interior a una circunferencia exterior, la pista se dibuja de una manera expandida lateralmente en la presente figura. Esta pista consiste en un área de entrada, un área de volumen y un área de salida. También, en el área de entrada existe un área especial denominada BCA (Área de Grabación Continua) que puede leerse únicamente mediante una unidad. Puesto que esta área no puede leerse mediante una aplicación, esta área se usa a menudo en tecnología de protección de derechos de autor.
El área de volumen en la presente figura tiene un modelo de capa que tiene una capa de sistema de ficheros y una capa de aplicación. Los datos de aplicación tales como datos de imagen que empiezan con información de sistema de ficheros se almacenan en la capa del sistema de ficheros. El sistema de ficheros es UDF, ISO9660 o similares. En el sistema de ficheros, es posible leer datos lógicos grabados de la misma manera que un PC normal, con el uso de una estructura de directorios o ficheros. También, puede leerse un nombre de fichero o un nombre de directorio que consiste en 255 palabras. Un nivel superior de la Figura 2 muestra un formato de capa de aplicación (formato de aplicación) del BD-ROM expresado usando una estructura de directorios. Como se muestra en el primer nivel, en el BD-ROM, existe un directorio CERTIFICADO (CERTIFICATE) y un directorio BDMV por debajo del directorio Raíz.
Por debajo del directorio CERTIFICADO, existe un fichero de un certificado raíz (app.discroot.certificate) de un disco. Este app.discroot.certificate es un certificado digital usado para comprobar si una aplicación se ha falsificado, e identificar la aplicación (en lo sucesivo denominado como verificación de firma) cuando se ejecuta un programa de una aplicación de JAVA™ que realiza control de escenario dinámico usando una máquina virtual de JAVA™.
El directorio BDMV es un directorio en el que se graban datos tales como contenido de AV e información de gestión usada en el BD-ROM 100. Existen seis directorios denominados “directorio de LISTA DE REPRODUCCIÓN (PLAYLIST)”, “directorio CLlPINF”, “directorio de FLUJO (STREAM)”, “directorio BDJO”, “directorio JAR” y “directorio META” por debajo del directorio BDMV. También, se disponen dos tipos de ficheros (es decir, INDEX.BDMV y MovieObject.bdmv).
El directorio STREAM es un directorio que almacena un fichero que es un denominado cuerpo de flujo de transporte. Existe un fichero (00001.m2ts) al que se le proporciona una extensión “m2ts” en el directorio STREAM.
Existe un fichero (00001.mpls) al que se le proporciona una extensión “mpls” en el directorio PLAYLIST.
Existe un fichero (00001.clpi) al que se le proporciona una extensión “clpi” en el directorio CLIPINF.
Existe un fichero (XXXXX.bdjo) al que se le proporciona una extensión “bdjo” en el directorio BDJO.
10
15
20
25
30
35
40
45
50
55
60
E09827327
18-05-2015
Existe un fichero (YYYYY.jar) al que se le proporciona una extensión “jar” en el directorio JAR.
Existe un fichero (ZZZZZ.xml) en el directorio META.
Lo siguiente describe estos ficheros.
(Fichero M2ts)
En primer lugar, se proporciona una descripción del fichero al que se proporciona la extensión “m2ts;”. El fichero al que se proporciona la extensión “m2ts”; es un flujo de AV digital en el método de MPEG-TS (Flujo de Transporte), y se obtiene multiplexando un flujo de vídeo, uno o más flujos de audio, un flujo de gráficos, un flujo de subtítulo de texto y similares. El flujo de vídeo representa la parte en movimiento de la película, y el flujo de audio representa la parte de audio de la película. Un flujo de transporte que incluye únicamente un flujo de 2D se denomina como un “flujo de 2D” y un flujo de transporte que incluye un flujo de 3D se denomina como un “flujo de 3D”.
En el caso del flujo de 3D, pueden incluirse tanto datos del ojo izquierdo como datos del ojo derecho en m2ts, o puede prepararse por separado el m2ts para cada uno de los datos del ojo izquierdo como de los datos del ojo derecho. Es preferible usar un códec (por ejemplo MPEG-4 AVC MVC) en el que un flujo de la vista izquierda y un flujo de la vista derecha se refieren uno al otro para ahorrar capacidad de disco usada para los flujos. Los flujos de vídeo comprimidos y codificados con el uso de un códec de este tipo se denominan flujos de vídeo de MVC.
(Información de lista de reproducción)
El fichero al que se proporciona la extensión “mpls” es un fichero que almacena información de lista de reproducción (PL). La información de lista de reproducción define una lista de reproducción que se refiere al clip de AV.
Existe una bandera de identificación de dimensión en el BD-ROM 100 para identificar si el flujo dirigido para reproducción es para 2D o 3D, y en la presente realización, la bandera de identificación de dimensión está embebida en la información de lista de reproducción (PL).
En la presente realización, es posible determinar si los flujos a reproducir incluyen un flujo de vídeo de 3D, basándose en un formato estructural de la lista de reproducción (PL) almacenada en el BD-ROM 100.
La información de lista de reproducción incluye información de ruta principal (MainPath), información de subruta (Subpath) e información de marca de lista de reproducción (PlayListMark).
1) La información de ruta principal define una sección de reproducción lógica definiendo al menos un par de un punto temporal (tiempo de entrada (In_Time)) y un punto temporal (tiempo de salida (Out_Time)) en un eje temporal de reproducción del flujo de AV. La información de la ruta principal tiene una tabla de número de flujo (tabla STN (STN_table)) que estipula qué flujos elementales que se han multiplexado en el flujo de AV se les permite reproducir y no se les permite reproducir. 2) La información de marca de lista de reproducción muestra la especificación de un punto temporal que corresponde a un capítulo en una parte del flujo de AV especificado mediante el par de la información de tiempo de entrada y la información de tiempo de salida. 3) La información de subruta está compuesta de al menos un trozo de información de subelemento de reproducción. La información de subelemento de reproducción incluye información sobre la especificación de un flujo elemental a reproducir en sincronización con el flujo de AV, e incluye un par de información de tiempo de entrada e información de tiempo de salida en el eje temporal de reproducción del flujo elemental. La aplicación de Java™ para controlar la reproducción ordena a una máquina virtual de Java™ generar una instancia de reproductor de JMF (Estructura de Medios de Java) que reproduce esta información de lista de reproducción. Esto inicia la reproducción del flujo de AV. La instancia del reproductor de JMF son datos reales generados en una memoria de montón de la máquina virtual basándose en la clase de reproductor de JMF.
Adicionalmente, de acuerdo con una definición de término, una lista de reproducción de 2D es una lista de reproducción que incluye únicamente un flujo para la reproducción de 2D mientras que una lista de reproducción de 3D incluye un flujo para visualización de 3D además del flujo de 2D.
El fichero al que se proporciona la extensión “clpi” es información de clip que está en correspondencia uno a uno con información de clip de AV. Puesto que la información de clip es información de gestión, la información de clip tiene un mapa de EP (EP_map) que muestra un formato de codificación del flujo en el clip de AV, una velocidad de fotograma, una tasa de bits, información sobre resolución y similares, y un punto de inicio de los GOP. La información de clip y la información de PL se clasifican como “escenario fijo”.
15
25
35
45
55
65
E09827327
18-05-2015
(Objetos de BD-J)
Lo siguiente describe el fichero al que se proporciona la extensión “BDJO”. El fichero al que se proporciona la extensión “BDJO” es un fichero que almacena un objeto de BD-J. El objeto de BD-J es información que define un título asociando una cadena de clip de AV definida mediante la información de lista de reproducción con una aplicación. El objeto de BD-J muestra una “tabla de gestión de aplicación” y un “valor de referencia para información de lista de reproducción”. El “valor de referencia para información de lista de reproducción” indica información de lista de reproducción a reproducir al mismo tiempo que se inicia el título. La tabla de gestión de aplicación enumera información para especificar una aplicación que especifica este título como un ciclo de vida.
La tabla de gestión de aplicación almacena, como información de aplicación detallada para cada aplicación, una cadena de texto que indica el nombre de la aplicación, y un localizador de icono que apunta a una localización de un icono que corresponde a la aplicación. Con el uso de una dirección, el localizador de icono apunta a un icono incluido en el fichero de archivo de Java (marca comercial registrada).
La entidad de la aplicación de Java (marca comercial registrada) corresponde a un fichero de archivo (YYYYY.jar) de Java (marca comercial registrada) almacenado en el directorio JAR bajo el directorio BDMV en la Figura 2.
La aplicación es, por ejemplo, una aplicación de Java (marca comercial registrada), y está compuesta de uno o más programas xlet cargados en un área de montón (denominada también “memoria de trabajo”) de la máquina virtual. Puesto que se realiza señalización de la aplicación y los ciclos de vida se gestionan de acuerdo con la tabla de gestión de aplicación en el objeto de BD-J, esto se denomina como una aplicación de BD-J. El objetivo de la aplicación de BD-J es mejorar la interactividad. La aplicación de BD-J define una API que puede emitir una instrucción de escalado que tiene, como información de entrada, un tamaño de escalado (en lo sucesivo denominado como “factor de escalado”, en la plataforma del aparato de reproducción, para producir a la aplicación de BD-J operar. Aparte de esto, puede emitirse también una instrucción de escalado mediante una aplicación residente que el usuario ha incorporado en un dispositivo directo. La temporización para emitir la instrucción de escalado puede determinarse libremente, y mientras que la instrucción de escalado puede emitirse durante la reproducción del flujo de vídeo, la instrucción de escalado puede emitirse también en otro momento.
En el fichero meta (ZZZZZ.xml) incluido en el directorio META se almacenan diversos trozos de información en relación con la película en el disco. Ejemplos de trozos de información almacenados en el fichero meta son un nombre del disco y una imagen del disco, información sobre quién ha creado el disco y un nombre de título para cada título. Esto concluye la descripción del BDROM 100. El fichero meta no es un prerrequisito, y algunos BD-ROM no incluyen este fichero meta.
Esto concluye la descripción del BD-ROM. Lo siguiente describe el objeto de BD-J. La Figura 3 muestra una estructura interna ejemplar del objeto de BD-J. Como se muestra en la Figura 3, el objeto de BD-J está compuesto de una “tabla de gestión de aplicación”, una “tabla de gestión de GUI” y una “tabla de gestión de lista de reproducción”.
Lo siguiente describe estos elementos.
La “tabla de gestión de aplicación” (AMT) es una tabla para producir que el aparato 200 realice señalización de aplicación que ejecuta el título como un ciclo de vida. Una línea bj1 principal muestra la estructura interna de la tabla de gestión de aplicación en primer plano. Como se muestra en esta línea principal, la tabla de gestión de aplicación incluye un “identificador de aplicación” y un “código de control” que especifican una aplicación a operarse cuando un título que corresponde al objeto de BD-J se hace un título actual. Cuando el código de control se establece a autoejecución (AutoRun), el código de control muestra que esta aplicación se inicia automáticamente después de que se carga la aplicación en la memoria de montón. Cuando el código de control se establece a existente (Present), el código de control espera una llamada desde otra aplicación, y muestra si la aplicación debería operarse después de que se carga la aplicación en la memoria de montón.
La “tabla de gestión de GUI” (GMT) es una tabla usada para operaciones relacionadas con la GUI mediante la aplicación. Más específicamente, se incluye la resolución, datos de fuente usada, información de enmascaramiento cuando la GUI ejecuta la llamada de menú o se ordena una llamada de título mediante el usuario. Una línea bj2 principal muestra la estructura interna de la tabla de gestión de la GUI en primer plano. Como se muestra mediante esta línea bj2 principal, la tabla de gestión de la GUI puede establecerse a uno de HD3D_1920×1080. HD3D_1280×720, HD_1920×1080, HD_1280×720, QHD960×540, SD, SD_50HZ_720_576 y SD_60HZ_720_480.
La “Tabla de Gestión de Lista de Reproducción (PLMT)” incluye información sobre la especificación de la lista de reproducción para operarse automáticamente cuando un título que corresponde al objeto de BD-J se hace un título actual. Una línea bj4 principal muestra la estructura interna de una lista de reproducción de auto reproducción en primer plano. Como se muestra mediante la línea bj4 principal, la lista de reproducción de 3D 1920×1080, la lista de reproducción de 3D 1280×720, la lista de reproducción de 2D 1920×1080, la lista de reproducción de 2D 1280×720,
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
la lista de reproducción de 2D 720×576 y la lista de reproducción de 2D 720×480 pueden especificarse como información que especifica la lista de reproducción de auto reproducción.
Lo siguiente describe detalles de los elementos estructurales del aparato de reproducción. La Figura 4 muestra una estructura interna ejemplar del aparato de reproducción. Como se muestra en la Figura 4, el aparato de reproducción incluye una unidad de BD 1a, una interfaz de red 1b, un almacenamiento local 1c, memorias intermedias de lectura 2a y 2b, el sistema de ficheros virtual 3, un demultiplexor 4, decodificadores de vídeo 5a y 5b, un plano de vídeo 6, decodificadores de imagen 7a y 7b, memorias de imagen 7c y 7d, un plano 9 de imagen y decodificador de audio 9, un plano de gráficos interactivos 10, un plano de fondo 11, un conjunto de registros 12, una memoria de escenario fijo 13, un motor de control de reproducción 14, un motor de escalado 15, una unidad de composición 16, una unidad de transmisión y recepción de HDMI 17, una unidad de almacenamiento de bandera de función de visualización 18, una unidad 19 de almacenamiento de procesamiento izquierdo y derecho, un motor de desplazamiento de plano 20, una unidad de ajuste de compensación 21, una plataforma de BD-J 22, un motor de representación 22a, una memoria 23 de escenario fijo, un módulo de gestión de modo 24, un módulo de HDMC 25, un módulo de detección de UO 26, una memoria de imagen fija 27a, un decodificador de imagen fija 27b, una unidad de ajuste de visualización inicial de ajuste de modo de visualización 28 y una unidad de almacenamiento de modo de visualización 29.
En la presente realización, el BD-ROM 100 almacena datos en la estructura de ficheros mostrada en la Figura 2. Un flujo de vídeo para el ojo izquierdo, un flujo de vídeo para el ojo derecho, un flujo de subtítulo y un flujo de gráficos se leen desde un BD-ROM virtual (paquete virtual) descrito más adelante mediante el sistema de ficheros virtual 3 descrito más adelante mostrado en la Figura 4. Por simplicidad, en el ejemplo descrito en este punto, el flujo de vídeo para el ojo izquierdo y el flujo de vídeo para el ojo derecho se graban en el BD-ROM 100.
También, los flujos de subtítulo y los flujos de gráficos para tanto el ojo izquierdo como el ojo derecho pueden grabarse en el BDROM 100, o el BD-ROM 100 puede configurarse de modo que se comparta un flujo de gráficos y un flujo de gráficos para tanto izquierda como derecha. En este caso, proporcionando una compensación como se describe más adelante, aunque los subtítulos y los gráficos visibles a través de las gafas de obturador de cristal líquido 500 sean imágenes monoscópicas, es posible hacerles parecer salir de la pantalla de visualización o parecer en una posición más hacia atrás de la pantalla de visualización.
Los vídeos grabados en este BD-ROM 100 en el que se introduce un flujo de vídeo del ojo izquierdo y un flujo de vídeo del ojo derecho en el aparato de reproducción 200 y se reproducen son vídeos en los que un punto de vista (por ejemplo, el ángulo de visión) es diferente debido a la paralaje entre los dos ojos, y los datos para reproducir este tipo de vídeo se graban con antelación como un flujo de vídeo en el BD-ROM 100.
En la presente realización, es preferible que se embeban un flujo de vídeo del ojo izquierdo y un flujo de vídeo del ojo derecho, un flujo de subtítulo y un flujo de gráficos en un único fichero de flujo con antelación. Esto es para suprimir la carga de cálculo requerida para memoria y gráficos mediante un dispositivo (por ejemplo, un dispositivo CE) que es bajo en recursos de dispositivo.
(Unidad de BD 1a)
La unidad de BD 1a incluye, por ejemplo, un láser semiconductor (no mostrado), lentes de colimador (no mostradas), un divisor de haz (no mostrado), una lente de objetivo (no mostrada), una lente de condensador (no mostrada), un cabezal óptico (no mostrado) que incluye un detector de luz (no mostrado). El haz de luz emitido desde el láser semiconductor se recoge en un lado de información del disco óptico a través de las lentes de colimador, el divisor de haz y la lente de objetivo. El haz de luz recogida se refleja y difracta en el disco óptico, y a continuación se recoge mediante el detector de luz a través de las lentes de objetivo, el divisor de haz y las lentes de condensador. La señal generada corresponde a datos leídos desde el BD-ROM de acuerdo con la cantidad de luz recogida en el detector de luz.
(Interfaz de red 1b)
La interfaz de red 1b es para realizar comunicación con un dispositivo externo al aparato de reproducción. La interfaz de red 1b puede acceder a servidores que son accesibles mediante internet y servidores que son accesibles mediante una red local. Por ejemplo, la interfaz de red 1b puede usarse para descargar contenidos adicionales de BD-ROM hechos públicos en internet, y realizando comunicación de datos entre un servidor en internet indicado mediante los contenidos, puede posibilitar la reproducción de contenido usando una función de internet. El contenido adicional de BD-ROM no se graba en el BD-ROM 100 original cargado en la unidad de BD 1a, y es, por ejemplo, sub-audio adicional, subtítulos, características especiales, aplicaciones, etc. El contenido adicional de BD-ROM puede controlar la interfaz de red 1b desde una plataforma de BD-J, y puede descargar contenido adicional hecho público en internet al almacenamiento local 1c.
15
25
35
45
55
65
E09827327
18-05-2015
(Almacenamiento local 1c)
El almacenamiento local 1c incluye un medio integrado y un medio extraíble, y se usa para almacenar los contenidos adicionales descargados y datos usados mediante la aplicación. Se proporciona un área de almacenamiento para los contenidos adicionales para cada BDROM, y se proporciona un área que puede usarse para almacenar datos para cada aplicación. También, información de gestión de unión, que es una regla de unión en relación con cómo los contenidos adicionales descargados se unen con los datos en el BD-ROM que se carga en la unidad de BD 1a, se almacenan también en el medio integrado y en el medio extraíble.
El medio integrado es un medio de grabación escribible tal como una unidad de disco duro y una memoria integrados en el aparato de reproducción 200.
El medio extraíble es un medio de grabación portátil, por ejemplo, y es preferentemente una tarjeta de memoria de semiconductor portátil tal como una tarjeta SD.
Se proporciona una descripción tomando como un ejemplo un caso donde el medio extraíble es una tarjeta de memoria de semiconductor. El aparato de reproducción 200 se proporciona con una ranura (no mostrada) en la que se inserta el medio extraíble, y una interfaz (por ejemplo, la INTERFAZ de tarjeta de memoria) para leer el área extraíble insertada en la ranura. Cuando la memoria de semiconductor se inserta en la ranura, el medio extraíble y el aparato de reproducción 200 están conectados eléctricamente entre sí, y es posible convertir datos grabados en la memoria de semiconductor en una señal eléctrica y leer la señal eléctrica con el uso de la interfaz (por ejemplo, la INTERFAZ de tarjeta de memoria).
(Memoria intermedia de lectura 2a)
La memoria intermedia de lectura 2a almacena temporalmente paquetes de fuente que componen extensiones que componen el flujo de la vista izquierda leído desde la unidad de BD 1a. La memoria intermedia 1 de lectura transfiere los paquetes de fuente al demultiplexor 4 después de ajustar la velocidad de transferencia.
(Memoria intermedia de lectura 2b)
La memoria intermedia de lectura 2b almacena paquetes de fuente que componen extensiones que componen el flujo de la vista derecha leído desde la unidad de BD 1a. La memoria intermedia 2 de lectura transfiere los paquetes de fuente al demultiplexor 4 después de ajustar la velocidad de transferencia.
(Sistema de ficheros virtual 3)
El sistema de ficheros virtual 3 configura un BD-ROM virtual (paquete virtual) en el que, por ejemplo, los contenidos adicionales almacenados en el almacenamiento local 1c se unen con los contenidos en el BD-ROM cargado basándose en la información de gestión de unión descargada en el almacenamiento local 1c junto con los contenidos adicionales. El sistema de ficheros virtual 3 para configurar el paquete virtual tiene un módulo de correlación de datos de aplicación para generar y actualizar información de correlación de aplicación. La información de correlación de datos de aplicación es información que correlaciona información de almacenamiento local con una aplicación, basándose en información en el disco de BD-ROM e información de atributos establecida mediante la aplicación.
El paquete virtual y el BD-ROM original pueden referenciarse desde un intérprete de comandos que es una parte operacional principal en el modo de HDMV, y la plataforma de BD-J que es una parte operacional principal en el modo de BD-J. El aparato de reproducción realiza el control de la reproducción con uso de los datos en el BD-ROM y los datos en el almacenamiento local 1c durante la reproducción del paquete virtual.
(Demultiplexor 4)
El demultiplexor 4 está compuesto de, por ejemplo, un desempaquetador de paquetes de fuente y un filtro de PID. Al recibir una instrucción desde un identificador de paquete que corresponde a un flujo a reproducir (el flujo está incluido en el paquete virtual estructurado (datos en el BD-ROM cargado y en el almacenamiento local que corresponde al BD-ROM cargado), el demultiplexor 4 ejecuta filtrado de paquetes basándose en el identificador de paquete. Al ejecutar el filtrado de paquete, el demultiplexor 4 extrae uno del flujo de vídeo de la vista izquierda y del flujo de vídeo de la vista derecha que corresponde a una bandera de método de visualización basado en la bandera en la unidad de almacenamiento de procesamiento de izquierda-derecha 19, y el demultiplexor 4 transfiere el flujo de vídeo al decodificador de vídeo 5a o al decodificador de vídeo 5b. El demultiplexor 4 ordena el fotograma de vídeo de la vista izquierda y el fotograma de vídeo de la vista derecha basándose en información de encabezamiento del flujo.
Cuando un flujo separado del flujo a reproducir es un flujo de subtítulo, el demultiplexor 4 escribe el flujo de subtítulo separado en la memoria de imagen. Cuando los flujos de subtítulos (un flujo de subtítulo de la vista izquierda y un
15
25
35
45
55
65
E09827327
18-05-2015
flujo de subtítulo de la vista derecha) están incluidos en el flujo, el demultiplexor 4 escribe el flujo de subtítulo de la vista izquierda en la memoria de imagen 7c, y escribe el flujo de subtítulo de la vista derecha en la memoria de imagen 7d.
Cuando el flujo de subtítulo de 2D (flujo de subtítulo usado para la visualización monoscópica) está incluido en el flujo, el demultiplexor 4 escribe el flujo de subtítulo de 2D en la memoria de imagen 7c.
(Decodificador de vídeo 5a)
El decodificador de vídeo 5a decodifica un paquete de TS emitido desde el demultiplexor 4, y escribe una imagen sin comprimir en un plano 6 del ojo izquierdo (expresado como un código (L) en el plano de vídeo 6 en la Figura 4).
(Decodificador de vídeo 5b)
El decodificador de vídeo 5b decodifica el flujo de vídeo de la vista derecha emitido desde el demultiplexor 4, decodifica el paquete de TS, y escribe la imagen sin comprimir en el plano de vídeo 6 de la vista derecha (expresado como un código (R) en el plano de vídeo 6 en la Figura 4).
(Plano de vídeo 6)
El plano de vídeo 6 es, por ejemplo, una memoria de plano que puede almacenar datos de imagen compatibles con una resolución tal como 1920×2160 (1280×1440). El plano de vídeo 6 tiene un plano del ojo izquierdo (expresado como el código (L) en el plano de vídeo 6 en la Figura 4) que tiene un área que puede almacenar datos con resolución tal como 1920×1080 (1280×720), y un plano del ojo derecho (expresado como el código (R) en el plano de vídeo 6 en la Figura 4) que tiene un área que puede almacenar datos con resolución tal como 1920×1080 (1280×720).
(Decodificadores de imagen 7a y 7b)
Cada uno de los decodificadores de imagen 7a y 7b decodifica paquetes de TS que componen el flujo de subtítulo que se emite desde el demultiplexor 4 y se escribe en las memorias de imagen 7c y 7d, y escribe los subtítulos de gráficos sin comprimir en el plano 8a de gráficos. Los “flujos de subtítulos” decodificados desde los decodificadores de imagen 7a y 7b son trozos de datos que muestran cada uno subtítulos comprimidos mediante una codificación de longitud de pasada, y se definen mediante códigos de píxeles que muestran un valor Y, un valor Cr, un valor Cb y un valor α y unas longitudes de pasada de los códigos de píxeles.
(Plano de imagen 8)
El plano de imagen 8 es un plano de gráficos que puede almacenar datos de gráficos (por ejemplo, datos de subtítulo) obtenidos mediante por ejemplo, decodificar el flujo de subtítulo con una resolución de 1920×1080 (1280×720). El plano de imagen 8 tiene un plano del ojo izquierdo (expresado como un código (L) en el plano de imagen 8 en la Figura 4) que tiene un área que puede almacenar datos que tienen una resolución de 1920×1080 (1280×720), por ejemplo, y un plano del ojo derecho (expresado como un código (R) en el plano de imagen 8 en la Figura 4) que tiene un área que puede almacenar datos que tienen una resolución de 1920×1080 (1280×720), por ejemplo.
(Decodificador de audio 9)
El decodificador de audio 9 decodifica fotogramas de audio emitidos desde el demultiplexor 4, y emite los datos de audio sin comprimir.
(Plano de gráficos interactivo 10)
El plano de gráficos interactivos 10 es un plano de gráficos que tiene un área de almacenamiento que puede almacenar datos de gráficos escritos mediante la aplicación de BD-J usando el motor de representación 22a con resoluciones tales como 1920×2160 (1280×1440). El plano de gráficos interactivos 10 tiene, para un ejemplo, un plano del ojo izquierdo (expresado como un código (L) en el plano de gráficos interactivos 10 en la Figura 5) que tiene un área que puede almacenar datos que tienen una resolución de 1930×1080 (1280×720), y un plano del ojo derecho (expresado como un código (R) en el plano de gráficos interactivos 10 en la Figura 4) que tiene un área que puede almacenar datos que tienen una resolución de 1920×1080 (1280×720).
Los “datos de gráficos” mantenidos en el plano de gráficos interactivo 10 son gráficos cuyos píxeles cada uno está definido mediante un valor R, un valor G, y un valor B y un valor α. Los gráficos escritos en el plano de gráficos interactivos 10 son una imagen o una mini aplicación usada principalmente para componer la GUI. Aunque los datos de imagen y los datos de gráficos son diferentes en términos de estructura, se expresan de manera colectiva como
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
datos de gráficos. Existen dos tipos del plano de gráficos (es decir, el plano de imagen 8 y el plano de gráficos interactivos 10). Posteriormente, cuando se usa el término “plano de gráficos”, se refiere a ambos o uno del plano de imagen 8 y del plano de gráficos interactivos 10.
(Plano de fondo 11)
El plano de fondo 11 es una memoria de plano que puede almacenar los datos de imagen fija para que sean una imagen de fondo que tiene una resolución tal como 1920×2160 (1280×1440). Específicamente, el plano de fondo 11 tiene un plano del ojo izquierdo (expresado como un código (L) en el plano de fondo 11 en la Figura 4) que tiene un área que puede almacenar datos que tienen una resolución de 1920×1080 (1280×720), y un plano del ojo derecho (expresado como un código (R) en el plano de fondo 11 en la Figura 4) que tiene un área que puede almacenar datos que tienen una resolución de 1920×1080 (1280×720).
(Conjunto de registros 12)
El conjunto de registros 12 es una colección de registros que incluyen un registro de estado de reproducción que almacena en el mismo información sobre estados de reproducción de listas de reproducción, un registro de ajuste de reproducción que almacena la información de configuración que muestra una configuración en el aparato de reproducción 200, y un registro general que puede almacenar información arbitraria usada mediante los contenidos. Cada uno de los estados de reproducción de las listas de reproducción muestran cuáles de los trozos de datos de AV se usan en cada tipo de trozos de información de datos de AV que se escriben en la lista de reproducción, y en qué posición (punto temporal) de la lista de reproducción se realiza la reproducción.
Cuando el estado de reproducción de una lista de reproducción se modifica, el motor de control de reproducción 14 almacena la modificación en el mismo. También, el conjunto de registros 12 puede almacenar y pasar valores especificados mediante aplicaciones y de acuerdo con instrucciones desde el intérprete de comandos, que es la parte operacional principal en el modo de HDMV, y desde la plataforma de BD-J, que es la parte operacional principal en el modo de BD-J.
(Memoria de escenario fijo 13)
La memoria de escenario fijo 13 es una memoria para almacenar información de lista de reproducción actual o una información de clip actual. La información de lista de reproducción actual es un objetivo de procesamiento actual de entre una pluralidad de trozos de información de lista de reproducción accesibles desde el BD-ROM, una unidad de medio integrado o una unidad de medio extraíble. La información de clip actual es un objetivo de procesamiento actual de entre una pluralidad de trozos de información de clip accesibles desde el BD-ROM, una unidad de medio integrado o una unidad de medio extraíble.
(Motor de control de reproducción 14)
El motor de control de reproducción 14 ejecuta una función de reproducción de AV y una función de reproducción de la lista de reproducción en respuesta a una llamada de función desde el intérprete de comandos que es la parte operacional principal en el modo de HDMV y la plataforma Java que es la parte operacional principal en la función de BD-J. La función de reproducción de AV es un conjunto de funciones usadas en reproductores de DVD y reproductores de CD e incluye inicio de reproducción, parada de reproducción, pausa, liberación de pausa, liberación de función de fotograma congelado, avance rápido a una velocidad de reproducción especificada mediante un valor inmediato, rebobinado rápido a una velocidad de reproducción especificada mediante un valor inmediato, conversión de audio, conversión de subimagen y conversión de ángulo. La función de reproducción de lista de reproducción es para realizar inicio de reproducción o parada de reproducción de entre las funciones de reproducción de AV anteriormente indicadas de acuerdo con la información de la lista de reproducción actual que componen las listas de reproducción actuales e información de clip actual.
Cuando un disco (por ejemplo, el BD-ROM 100) se inserta en la unidad de disco, una lista de reproducción y un flujo de AV que son objetivos de procesamiento de reproducción mediante el motor de control de reproducción 14 son listas de reproducción de auto inicio que se escriben en el escenario actual en el BD-ROM. La reproducción del flujo de AV se inicia debido a una operación de usuario (por ejemplo, botón de reproducción) o se inicia automáticamente mediante un evento CONECTADO mediante el terminal (tal como una aplicación residente).
(Motor de escalado 15)
El motor de escalado 15 puede realizar reducción, ampliación y control de tamaño de imágenes en el plano de imagen 8 y en el plano de vídeo 6. El motor de escalado 15 considera que aparece escalado cuando, en un momento en que se han decodificado esos datos de imagen o datos de foto, se establece un valor en el motor de desplazamiento de plano 20, y antes de almacenar los datos de vídeo decodificado en el plano de vídeo 6, se realiza escalado mediante el motor de escalado 15.
15
25
35
45
55
65
E09827327
18-05-2015
Un factor de escalado es, por ejemplo, un factor de un número de píxeles horizontales y/o un número de píxeles verticales. Para dar un ejemplo, en comparación con datos de gráficos para los que una resolución básica es 1920×1080 píxeles, cuando se especifica un factor de escalado de “1/2”, la resolución de los datos de gráficos es (1920×0,5) × (1080×0,5) píxeles, es decir, se reduce a 960×540 píxeles. El factor de escalado no es siempre menor de 1 como en el caso de 1/2, sino que puede establecerse también a un valor mayor de o igual a 1 y en tales casos se realiza el procesamiento de expansión.
(Unidad de composición 16)
La unidad de composición 16 compone datos mantenidos en el plano de gráficos interactivos 10, datos mantenidos en el plano de imagen 8, datos mantenidos en el plano de vídeo 6 y datos mantenidos en el plano de fondo 11.
Cada uno del plano de gráficos interactivos 10, el plano de imagen 8, el plano de vídeo 6 y el plano de fondo 11 tiene una estructura de capa separada. Los datos mantenidos en cada uno de los planos se componen (superponen) en orden del plano de fondo 11, el plano de vídeo 6, el plano de imagen 8, a continuación el plano de gráficos interactivos 10. Como datos del plano de imagen, subtítulos y como datos del plano de gráficos interactivos 10, un menú EMERGENTE (POP-UP) (gráficos), y suponiendo que se reproducen los contenidos que visualizan los datos de gráficos de la GUI, la unidad de composición siempre solapa los datos del plano de imagen 8 (subtítulos) con los datos del plano de vídeo 6 (vídeo), y solapa los datos del plano de gráficos interactivos 10 con el plano de imagen 8. En otras palaras, incluso si los contenidos estereoscópicos están en el plano de vídeo 6, cuando un subtítulo, un menú EMERGENTE, o una GUI sin profundidad se superponen en el vídeo estereoscópico, las imágenes (tales como subtítulos, menús EMERGENTES y la GUI) deben visualizarse preferentemente en primer lugar. Lo mismo se cumple cuando se realiza escalado.
(Unidad de transmisión/recepción de HDMI 17)
La unidad de transmisión/recepción de HDMI 17 incluye una interfaz que cumple con la norma de HDMI (HDMI: Interfaz Multimedia de Alta Definición). La unidad de transmisión/recepción de HDMI 17 realiza transmisión y recepción de manera que el aparato de reproducción 200 y un dispositivo (en este ejemplo, una TV 400) que realiza la conexión de HDMI con el aparato de reproducción 200 cumplen con la norma de HDMI. Los datos de imagen almacenados en los datos de vídeo y audio decodificados desde los datos de audio sin comprimir mediante el decodificador de audio 9 se transmiten a la TV 400 mediante la unidad de transmisión/recepción de HDMI 17. La TV 400 mantiene información tal como, si la TV 400 puede visualizar datos estereoscópicamente, información en relación con resoluciones en las que puede realizarse visualización monoscópica e información en relación con resoluciones en las que puede realizarse visualización estereoscópica. Cuando el aparato de reproducción 200 proporciona una solicitud mediante la unidad de transmisión/recepción de HDMI 17, la TV 400 proporciona al aparato de reproducción 200 información necesaria (por ejemplo, información en relación con si la TV 400 puede visualizar datos estereoscópicamente, información en relación con las resoluciones en las que puede realizarse visualización monoscópica, e información en relación con las resoluciones en las que puede realizarse visualización estereoscópica) solicitada mediante la TV 400. Por lo tanto, el aparato de reproducción 200 puede obtener, desde la TV 400, la información en relación con si la TV 400 puede visualizar datos estereoscópicamente mediante la unidad de transmisión/recepción de HDMI 17.
(Unidad de almacenamiento de bandera de función de visualización 18)
La unidad de almacenamiento de bandera de función de visualización 18 almacena una bandera de función de visualización de 3D que indica si el aparato de reproducción puede visualizar 3D.
(Unidad de almacenamiento de procesamiento de izquierda-derecha 19)
La unidad de almacenamiento de procesamiento de izquierda-derecha 19 almacena información que muestra si el procesamiento de salida actual es para el vídeo de la vista izquierda o para el vídeo de la vista derecha. Una bandera en la unidad de almacenamiento de procesamiento de izquierda-derecha 19 muestra sí o no los datos a emitir a un dispositivo de visualización (la televisión 400 en la Figura 1) conectada al aparato de reproducción 200 mostrado en la Figura 1 son el vídeo de la vista izquierda o el vídeo de la vista derecha. Mientras que se emite el vídeo de la vista izquierda, la bandera en la unidad de almacenamiento de procesamiento de izquierda-derecha 19 se establece como la salida de la vista izquierda. También, mientras que se emite el vídeo de la vista derecha, la bandera en la unidad de almacenamiento de procesamiento de izquierda-derecha 19 se establece como la salida de la vista derecha.
(Motor de desplazamiento de plano 20)
El motor de desplazamiento de plano 20 combina áreas que almacenan una compensación de plano. Después de que la unidad de almacenamiento de procesamiento de izquierda-derecha 19 determina si el objetivo de procesamiento actual es un vídeo del ojo izquierdo o un vídeo del ojo derecho, el motor de desplazamiento de plano 20 calcula, con uso de una compensación de plano almacenada, una distancia de desplazamiento de un eje
15
25
35
45
55
65
E09827327
18-05-2015
horizontal de un plano de imagen (una cantidad que indica cómo de lejos desplazar la imagen visualizada en la pantalla de visualización, en una dirección horizontal de la pantalla de visualización, desde una posición de referencia), y desplaza la imagen mediante la distancia de desplazamiento. Ajustando la distancia de desplazamiento de los subtítulos visualizados (gráficos), los gráficos pueden mostrarse parecer más hacia delante o a atrás que la posición de la pantalla de visualización. La distancia de desplazamiento es una cantidad para ajustar cómo de lejos hacia delante o hacia atrás de la pantalla de visualización aparecen los gráficos.
En otras palabras, cambiar la cantidad de desplazamiento del eje horizontal del subtítulo/gráficos cambia la profundidad. Se obtiene un efecto óptico de modo que, por ejemplo, cuanto más distantes se vuelven los subtítulos de la vista izquierda y los subtítulos de la vista derecha en una dirección predeterminada, más hacia delante se visualizan los gráficos, y cuanto más distantes se vuelven los subtítulos de la vista izquierda y los subtítulos de la vista derecha uno del otro en una dirección opuesta, más hacia atrás se presentan los gráficos.
Dependiendo de la distancia de desplazamiento, existen en casos en los que el desplazamiento del plano de la imagen se hace demasiado grande para la resolución y tamaño de la visualización, y ocurre un fenómeno en el cual el ojo no puede seguir la imagen, y la imagen parece estar duplicada. En este caso, basándose en un valor escrito en la compensación de plano, se combina la información que indica la resolución y tamaño de la visualización, y se realiza un ajuste de modo que no se visualizan los subtítulos/gráficos demasiado lejos hacia el frente. Por ejemplo, cuando el aparato de reproducción 200 incluye una función de configuración mediante la que puede establecerse un valor de la compensación de plano, el motor de desplazamiento de plano 20 almacena un valor establecido con uso de la función de configuración.
(Unidad de ajuste de compensación 21)
La unidad de ajuste de compensación 21, tras recibir una solicitud de actualización de compensación, establece una compensación a actualizarse en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20, descrita más adelante.
Específicamente, la unidad de ajuste de compensación 21 realiza los ajustes mediante operaciones tales como (a) leer un valor de compensación de un ajuste de plano de imagen y un valor de compensación del ajuste del plano de gráficos interactivos almacenados en la unidad de almacenamiento de modo de visualización 29 descrita más adelante y ajustar los valores de compensación, (b) ajustar el valor de compensación obtenido desde el demultiplexor 4 después de que el demultiplexor 4 obtiene el valor de compensación del plano de la imagen y el valor de compensación del plano de gráficos interactivos almacenado en un área de encabezamiento de un flujo introducido al demultiplexor 4, (c) leer el valor de compensación del plano de imagen y el valor de compensación del plano de gráficos interactivos enviado desde el módulo de detección de UO 26, y ajustar los valores de compensación, (d) leer el valor de compensación del plano de imagen y el valor de compensación del plano de gráficos interactivos incluidos en la información de lista de reproducción actual y ajustar los valores de compensación.
La unidad de ajuste de compensación 21 es un módulo para almacenar temporalmente el valor de una compensación de plano para el que un usuario o una aplicación han solicitado una actualización. En la compensación de plano, la profundidad se expresa, por ejemplo, como un entero desde -63 a 63 (indicando 63 la parte frontal más lejana, e indicando -63 la parte trasera más lejana), y esto se convierte finalmente a coordenadas de píxeles que indican una distancia de desplazamiento.
(Plataforma de BD-J 22)
La plataforma de BD-J 22 es una plataforma de Java que es una parte operacional principal en el modo de BD-J. La plataforma de BD-J 22 se proporciona completamente con el Perfil de Base Personal (PBP 1.0) y la especificación de MHP Globalmente Ejecutable (GEM1.0.2) de Java2Micro_Edition (J2ME) para objetivos de medios de paquete. La plataforma de BD-J 22 lee códigos de bytes desde un fichero de clase en el fichero del archivo JAR, y almacena la memoria de montón para iniciar la aplicación de BD-J. A continuación, la plataforma de BD-J 22 convierte códigos de bytes que componen la aplicación de BD-J y códigos de bytes que componen una aplicación de sistema en códigos nativos, y produce que la MPU ejecute los códigos nativos. La plataforma de BD-J 22, cuando se ha solicitado el escalado mediante la aplicación de BD-J, almacena un factor de escalado dado como un parámetro en la unidad de almacenamiento de factor de escalado 42 descrita más adelante del motor 20 de escalado mostrado en la Figura 21.
(Motor de representación 22a)
El motor de representación 22a incluye software de base (por ejemplo, Java 2D, OPEN-GL), y escribe gráficos y una cadena de caracteres en el plano de gráficos interactivos 10 de acuerdo con las instrucciones desde la plataforma de BD-J 22 en el modo de BD-J. También, en el modo de HDMV, el motor de representación 22a escribe datos de gráficos (por ejemplo, datos de gráficos que corresponden a un botón de entrada) extraídos desde el flujo de gráficos distinto de un flujo que corresponde a los subtítulos (flujo de subtítulo), y escribe los datos de gráficos
E09827327
18-05-2015
extraídos mantenidos en el plano de gráficos interactivos 10.
(Memoria de escenario dinámico 23)
5 La memoria de escenario dinámico 23 almacena el escenario dinámico actual, y se usa para procesar mediante el módulo de HDMV que es la parte operacional principal en el modo de HDMV, y la plataforma de Java que es la parte operacional principal en el modo de BD-J. El escenario dinámico actual es un objetivo de ejecución actual que es uno del Index.bdmv, el objeto de BD-J y el objeto de la película grabados en el BD-ROM, en el medio integrado o en el medio extraíble.
10 (Módulo de gestión de modo 24)
El módulo de gestión de modo 24 almacena el Index.bdmv leído desde el BD-ROM 100 o del almacenamiento local 1c (el medio integrado o el medio extraíble en el ejemplo mostrado en la Figura 4), y realiza gestión de modo y
15 control de ramificación. La gestión de modo mediante el módulo de gestión de modo 24 es para realizar asignación del escenario dinámico al módulo (es decir, producir que uno de la plataforma de BD-J 22 y del módulo de HDMC 25 ejecuten el escenario dinámico).
(Módulo de HDMC 25)
20 El módulo de HDMC 25 es un reproductor virtual de DVD que es una parte operacional principal en el modo de HDMV, y es una parte de ejecución principal. Este módulo incluye un intérprete de comandos, y ejecuta control del modo de HDMV leyendo y ejecutando los comandos de navegación que componen el objeto de la película. Los comandos de navegación se escriben mediante una sintaxis similar a una sintaxis para el DVD-Vídeo. Por lo tanto,
25 puede realizarse el control de reproducción similar al DVD-Vídeo ejecutando estos comandos de navegación.
(Módulo de detección de UO 26)
El módulo de detección de UO 26 recibe la operación de usuario en la GUI. La operación de usuario recibida
30 mediante la GUI incluye selección de título que determina cuáles de los títulos grabados en el BD-ROM se seleccionan, selección de subtítulo y selección de audio. En particular, una de las operaciones de usuario única a la reproducción estereoscópica es recibir la profundidad del vídeo estereoscópico. Por ejemplo, existen tres niveles de profundidad tales como distante, habitual y cercano, o los niveles de profundidad pueden expresarse mediante los valores numéricos tales como cuántos centímetros o cuántos milímetros.
35 También, cuando se recibe una instrucción, mediante el control remoto o un botón en el dispositivo, para cambiar el escalado del plano de imagen, el módulo de detección de UO 26 emite una instrucción de escalado directa al módulo en el dispositivo.
40 (Memoria de imagen fija 27a)
La memoria de imagen fija 27a almacena datos de imagen fija, formando una imagen de fondo, tomada desde el BD-ROM o configurada mediante el paquete virtual.
45 (Decodificador de imagen fija 27b)
El decodificador de imagen fija 27b decodifica datos de imagen fija leídos desde la memoria de imagen fija 27a, y escribe los datos de imagen de fondo sin comprimir mantenidos en el plano de fondo 11.
50 (Unidad de ajuste de visualización inicial de ajuste de modo de visualización 28)
La Unidad de ajuste de visualización inicial de ajuste de modo de visualización 28 establece el modo de visualización y las resoluciones basándose en el objeto de BD-J en el título actual proporcionado con la unidad de plataforma de BD-J.
55 (Unidad de almacenamiento de modo de visualización 29)
La unidad de almacenamiento de modo de visualización 29 almacena información sobre si un modo de visualización es 2D o 3D, y si un modo estéreo está CONECTADO o DESCONECTADO. Cuando la bandera de función de
60 visualización de 3D del aparato de reproducción 200 muestra que el aparato de reproducción 200 puede visualizar vídeo de 3D, el modo de visualización que es un ajuste de terminal almacenado en la unidad de almacenamiento de modo de visualización 29 puede cambiarse a uno de un modo de 2D y un modo de 3D. En lo sucesivo, un estado del modo de visualización mostrado como “3D” se denomina como un “modo de visualización de 3D”, y un estado del modo de visualización mostrado como “2D” se denomina como un “modo de visualización de 2D”.
65
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
Lo siguiente describe las particularidades de este modo de visualización. Cuando el aparato de reproducción 200 está en el modo de reproducción de 3D, los modos estéreo de los planos están CONECTADOS o DESCONECTADOS. La diferencia entre CONECTADO y DESCONECTADO de los modos estéreo afecta a métodos de composición para los planos.
Usando un flujo de vídeo como un ejemplo, “el modo estéreo CONECTADO” es un modo de visualización de 3D en el que se realiza la composición de manera que el aparato de reproducción 200 presenta dos imágenes para las que la vista (por ejemplo el ángulo de visión) es diferente (por ejemplo, un vídeo de la vista izquierda y un vídeo de vista derecha que tienen diferentes ángulos de visión).
El “modo estéreo DESCONECTADO” es un modo de visualización de 3D en el que se realiza la composición de manera que el aparato de reproducción 200 proporciona una imagen (por ejemplo, una de una imagen de la vista izquierda y una imagen del ojo derecho, y en el presente ejemplo, se usa una imagen de la vista izquierda) y proporciona la imagen al ojo izquierdo/ojo derecho. Es decir, cuando se visualiza mediante ambos ojos, la imagen no parece estereoscópica (es una imagen monoscópica).
Sin embargo, cuando los datos mantenidos en el plano 8 de gráficos se desplazan en la dirección horizontal mediante la compensación de plano, los datos de gráficos del plano (datos de subtítulo) que se mantienen en el plano 8 de gráficos para visualizarse pueden visualizarse en una posición más cercana al espectador que una posición de la pantalla de visualización, o en una posición más distante desde el espectador que una posición de la pantalla de visualización. El mismo efecto puede conseguirse cuando se ajustan las compensaciones de datos de vídeo mantenidos en el plano de vídeo 6, datos de gráficos interactivos mantenidos en el plano de gráficos interactivos 10, y datos de imagen de fondo mantenidos en el plano de fondo 11 cuando el “modo estéreo está en el estado DESCONECTADO”.
Como se ha descrito en lo anterior, existen dos modos, “modo estéreo CONECTADO” y “modo estéreo DESCONECTADO” en el “modo de visualización de 3D”. Cuando el aparato de reproducción 200 está en el estado de “modo estéreo CONECTADO” en el modo de visualización de 3D, los datos de la vista izquierda y los datos de la vista derecha (por ejemplo, una imagen vista mediante el ojo izquierdo y la imagen vista mediante el ojo derecho pueden observarse desde diferentes ángulos) se mantienen en el plano del ojo izquierdo y en el plano de la vista derecha, respectivamente, y se visualizan de acuerdo con la señal de SINCRONIZACIÓN. Esto hace posible visualizar la imagen estereoscópica.
También, cuando el aparato de reproducción 200 está en el estado de “modo estéreo DESCONECTADO” en el modo de visualización de 3D, uno de los datos de la vista izquierda y los datos de la vista derecha (los datos de la vista izquierda mantenidos en la presente realización) se mantienen en cada uno del plano del ojo izquierdo y del plano de la vista derecha, y se ajustan las compensaciones de planos de los trozos de datos almacenados. Esto hace posible visualizar la imagen monoscópica en una posición más cercana a o más distante del espectador que la posición de la pantalla de visualización.
En la presente realización, el “modo estéreo CONECTADO” y el “modo estéreo DESCONECTADO” pueden establecerse para cada plano (es decir, el plano de vídeo 6, el plano 8 de gráficos, el plano de gráficos interactivos 10 y el plano de fondo 11).
El “modo de visualización de 2D” es una visualización normal que visualiza la imagen en una posición que corresponde a la posición de la pantalla de visualización. En tal caso, un decodificador y un plano usados están predeterminados en un ajuste por defecto, y la imagen compuesta se visualiza con uso del decodificador y el plano.
Por ejemplo, cuando el aparato de reproducción 200 está en el “modo de visualización de 2D”, la unidad de composición 16 compone: los datos de vídeo de 2D escritos mediante el decodificador de vídeo 5a en el plano de vídeo del ojo izquierdo (expresado como el código (L) en el plano de vídeo 6 en la Figura 4); los datos de gráficos de 2D (datos de subtítulo) escritos mediante el decodificador de imagen 7a en el plano del ojo izquierdo (expresados como el código (L) en el plano de imagen 8 en la Figura 5); los gráficos interactivos de 2D escritos mediante la aplicación de BD-J en el plano del ojo izquierdo (expresados como el código (L) en el plano de gráficos interactivos 10 en la Figura 4) usando el motor de representación 22a; y los datos de imagen fija escritos mediante el decodificador de imagen fija 27b en el plano del ojo izquierdo (expresados como el código (L) en el plano de fondo 11 en la Figura 5).
En este momento, la unidad de composición 16 realiza la composición en el orden de los datos de imagen fija de 2D, los datos de vídeo de 2D (datos de subtítulo) y los datos de gráficos interactivos de 2D en orden desde los datos desde la parte inferior.
La unidad de ajuste de visualización inicial de ajuste de modo de visualización 28 establece el modo de visualización y las resoluciones basándose en el objeto de BD-J en el título actual proporcionado con la unidad de plataforma de BD-J.
15
25
35
45
55
65
E09827327
18-05-2015
Lo siguiente describe cómo cambia la escritura a las memorias de los planos dependiendo del ajuste del modo de visualización.
(Escribir al plano de vídeo 6)
En primer lugar, lo siguiente describe el plano de vídeo 6. Cuando el modo de visualización de los datos de vídeo es el modo de visualización de 3D, y el modo estéreo está CONECTADO, el decodificador de vídeo 5a decodifica el flujo de vídeo de la vista izquierda y escribe el flujo de vídeo de la vista izquierda decodificado al plano del ojo izquierdo (indicado mediante la notación (L) en el plano de vídeo 6 mostrado en la Figura 5), y el decodificador de vídeo 5b decodifica el flujo de vídeo de la vista derecha y escribe el flujo de vídeo de la vista derecha decodificado al plano del ojo derecho (indicado mediante la notación (R) en el plano de vídeo 6 mostrado en la Figura 5).
También, cuando el modo de visualización de los datos de vídeo es el modo de 3D y el modo estéreo está DESCONECTADO, el decodificador de vídeo 5a, por ejemplo, decodifica, por ejemplo, el flujo de vídeo de la vista izquierda, y escribe ese flujo de vídeo decodificado al plano del ojo izquierdo (indicado mediante la notación (L) en el plano de vídeo 6 mostrado en la Figura 5) y en el plano de vídeo del ojo derecho (indicado mediante la notación (R) en el plano de vídeo 6 mostrado en la Figura 5).
También, el aparato está configurado de modo que cuando el modo de visualización de los datos de vídeo es 2D, por ejemplo, el demultiplexor 4 envía el flujo de vídeo de 2D al decodificador de vídeo 5a, y el decodificador de vídeo 5a escribe los datos de vídeo de 2D decodificados al plano de vídeo del ojo izquierdo (indicado mediante la notación
(L) en el plano de vídeo 6 mostrado en la Figura 5).
Esto completa la descripción del plano de vídeo 6.
Lo siguiente describe los detalles del plano de imagen 8.
(Escribir al plano de imagen 8)
Por ejemplo cuando el modo de visualización de los datos de subtítulo es el modo de visualización de 3D y el modo estéreo está CONECTADO, el plano de imagen 7a decodifica el flujo de subtítulo de la vista izquierda almacenado en la memoria de imagen 7c, y escribe el flujo de subtítulo de la vista izquierda decodificado en el plano del ojo izquierdo (indicado mediante la notación (L) en el plano de imagen 8 mostrado en la Figura 5), y el decodificador de imagen 7b decodifica el flujo de subtítulo de la vista derecha almacenado en la memoria de imagen 7d y escribe el flujo de subtítulo de la vista derecha decodificado en el plano del ojo derecho (indicado mediante la notación (R) en el plano de imagen 8 mostrado en la Figura 5).
También, cuando el modo de visualización de los datos de subtítulo es el modo de visualización de 3D, y el modo estéreo está DESCONECTADO, el decodificador de imagen 7a decodifica el flujo de subtítulo de la vista izquierda almacenado en la memoria de imagen 7c y almacena el flujo de subtítulo de la vista izquierda decodificado en el plano del ojo izquierdo (indicado mediante la notación (L) en el plano de imagen 8 mostrado en la Figura 5) y en el plano del ojo derecho (indicado mediante la notación (R) en el plano de imagen 8 mostrado en la Figura 5).
En el ejemplo anterior, cuando el modo de visualización de los datos de subtítulo es el modo de visualización de 3D y el modo estéreo está DESCONECTADO, el flujo de subtítulo de la vista izquierda se decodifica y escribe en el plano izquierdo y en el plano derecho. Sin embargo, cuando el flujo de subtítulo almacenado en el medio de grabación está configurado de modo que se comparte un mismo flujo de subtítulo entre izquierda y derecha, este flujo de subtítulo compartido puede leerse y escribirse al plano de imagen del ojo izquierdo y al plano de imagen del ojo derecho.
También, el aparato está configurado de modo que, cuando el modo de visualización de los datos de subtítulo es el modo de visualización de 2D, el demultiplexor 4 almacena el flujo de subtítulo de 2D en la memoria de imagen 7c, y el decodificador de imagen 7a decodifica el flujo de subtítulo de 2D almacenado en la memoria de imagen 7c, y escribe el flujo de subtítulo de 2D decodificado en el plano del ojo izquierdo (indicado mediante la notación (L) en el plano de imagen 8 mostrado en la Figura 5).
Esto completa la descripción del plano de imagen 8. Lo siguiente describe el contenido almacenado del plano de gráficos interactivos 10.
(Escribir al plano de gráficos interactivos 10)
Cuando el modo de visualización del plano de gráficos interactivos está en el modo de visualización de 3D, y el modo estéreo está CONECTADO, se indica que la aplicación de BD-J incluye un programa que escribe unos gráficos interactivos que son visibles mediante el ojo izquierdo (gráficos interactivos del ojo izquierdo) y unos gráficos interactivos que son visibles mediante el ojo derecho y que son diferentes de los gráficos interactivos del ojo izquierdo (gráficos interactivos del ojo derecho).
15
25
35
45
55
65
E09827327
18-05-2015
Los gráficos interactivos del ojo izquierdo y los gráficos interactivos del ojo derecho escritos mediante este programa de representación pueden observarse desde diferentes ángulos para permitir al espectador observar gráficos estereoscópicos.
Cuando se visualizan los gráficos interactivos del ojo izquierdo y los gráficos interactivos del ojo derecho, la aplicación de BD-J escribe los gráficos interactivos de la vista izquierda en el plano del ojo izquierdo (al que se proporciona un código (L) en el plano de gráficos interactivos 10 en la Figura 4) con uso del motor de representación 22a, y escribe los gráficos interactivos de la vista derecha en el plano del ojo derecho (al que se proporciona un código (R) en el plano de gráficos interactivos 10 en la Figura 4).
Cuando el modo de visualización del plano de gráficos interactivos está en el modo de visualización de 3D, y el modo estéreo está DESCONECTADO, la aplicación de BD-J escribe los gráficos interactivos de la vista izquierda en cada uno de los planos a los que se proporciona el código (L) y el código (R) respectivamente, con uso del motor de representación 22a.
Cuando el modo de visualización del plano de gráficos interactivos está en el modo de visualización de 2D, la aplicación de BD-J escribe los gráficos interactivos de 2D en el plano de gráficos interactivos 10 (más específicamente, el plano al que se proporciona el código (L) en el plano de gráficos interactivos 10) con uso del motor de representación 22a.
Esto concluye la descripción del plano de gráficos interactivos 10. Lo siguiente describe el contenido almacenado del plano de fondo 11 que depende del modo de visualización.
(Escribir al plano de fondo 11)
Cuando el modo de visualización del plano de fondo 11 está en el modo de visualización de 3D, y el modo estéreo está CONECTADO, el decodificador de imagen fija 27a decodifica los datos de imagen fija de la vista izquierda y los datos de imagen fija de la vista derecha que están almacenados en la memoria de imagen fija 27a. A continuación el decodificador de imagen 27a escribe los de imagen fija de la vista izquierda y los datos de imagen fija de la vista derecha mantenidos en el plano del ojo izquierdo (al que se proporciona un código (L) en el plano de fondo 11 mostrado en la Figura 4) y en el plano de la vista derecha (al que se proporciona un código (R) en el plano de fondo 11 mostrado en la Figura 4), respectivamente.
Cuando el modo de visualización del plano de fondo 11 está en el modo de visualización de 3D, y el modo estéreo está DESCONECTADO, el plano de fondo 11 decodifica los datos de imagen fija de la vista izquierda de entre las imágenes de fondo de 3D almacenadas en la memoria de imagen fija 27a (los datos de imagen fija de la vista izquierda y los datos de imagen fija de la vista derecha), y escribe los datos de la imagen de la vista izquierda decodificados mantenidos en el plano del ojo izquierdo (al que se proporciona un código (L) en el plano de fondo 11 mostrado en la Figura 4) y en el plano del ojo derecho (al que se proporciona un código (R) en el plano de fondo 11 mostrado en la Figura 4).
Esto concluye la descripción del contenido almacenado del plano de fondo 11 que depende del modo de visualización.
Lo siguiente describe los detalles de cambiar entre el modo de visualización de 2D y el modo de visualización de 3D en la presente realización.
La Figura 5 muestra cambiar entre el modo de visualización de 2D y el modo de visualización de 3D. En el lado izquierdo de la Figura 5, se muestra un modelo de salida en el modo de visualización de 2D. En la estructura de plano en el lado izquierdo de la Figura 5, únicamente se prepara uno de cada uno del plano de vídeo 6, del plano de imagen 8 (“Subtítulo” en la Figura 5), del plano de gráficos interactivos 10, del plano de fondo 11 y una salida.
Por lo tanto, se usan los mismos datos para la vista izquierda y la vista derecha en el modo de visualización de 2D. Como resultado, se emiten los mismos datos.
En el lado derecho de la Figura 5, se muestra un modelo de salida en el modo de visualización de 3D. Cuando el aparato de reproducción 200 está en el modo de visualización de 3D, el plano de vídeo 6, el plano de imagen 8 (“Subtítulo” en la Figura 5) y el plano de gráficos interactivos 10 están preparados para cada una de la vista izquierda y de la vista derecha. Los datos de imagen y los datos de gráficos a reproducirse se mantienen en cada uno del plano de vídeo 6, del plano de imagen 8 (“Subtítulo” en la Figura 5), del plano de gráficos interactivos 10 y del plano de fondo 11 para el ojo izquierdo y el ojo derecho.
Por lo tanto, la salida de la vista izquierda y la salida de la vista derecha se realizan por separado en el modo de visualización de 3D. Puede proporcionarse una imagen diferente para el ojo izquierdo y el ojo derecho. Como resultado, es posible obtener un efecto de 3D que el objeto estereoscópico en la pantalla parezca salir cerca del espectador debido a la disparidad binocular.
15
25
35
45
55
65
E09827327
18-05-2015
La Figura 6 muestra un ejemplo del procesamiento de composición cuando los modos estéreo de todos los planos están CONECTADOS, y cuando los modos estéreo de todos los planos están DESCONECTADOS, en el modo de visualización de 3D.
Aunque la Figura 6 muestra un ejemplo de un caso donde los modos estéreo de los planos son los mismos, CONECTADO/DESCONECTADO del modo estéreo puede cambiarse para cada uno de los planos.
En el lado izquierdo de la Figura 6, se muestra la estructura de plano cuando los modos estéreo de todos los planos están CONECTADOS. En el lado derecho de la Figura 6, la estructura de plano cuando los modos estéreo de todos los planos están CONECTADOS.
La primera fila muestra el plano de fondo 11 y los datos de salida antes de la composición.
La segunda fila muestra el flujo de vídeo, el plano de vídeo 6 y los datos de salida antes de la composición.
La tercera fila muestra el plano de imagen 8 y los datos de salida antes de la composición.
La cuarta fila muestra el plano de gráficos interactivos 10 y los datos de salida antes de la composición.
Cuando el modo estéreo está CONECTADO, se usa un plano de fondo del ojo izquierdo que se expresa como un área a la que se proporciona (L) para escribir los datos de fondo de la vista izquierda, y se usa un plano de fondo del ojo derecho que se expresa como un área a la que se proporciona (R) para escribir los datos de fondo de la vista derecha. Cada uno de los trozos de datos de fondo está compuesto con la imagen del ojo izquierdo o de la vista derecha correspondiente. Cuando el modo estéreo del plano de fondo 11 está DESCONECTADO, se escriben los datos de fondo de la vista izquierda, mediante la aplicación, en cada una de las áreas a las que se proporciona (L) y
(R) respectivamente en el plano de fondo 11. Por lo tanto, los datos de fondo de la vista derecha no afectan a la visualización.
Cuando el modo estéreo está CONECTADO, los datos de imagen del vídeo del ojo izquierdo en el flujo de vídeo se mantienen en el plano de vídeo de la vista izquierda. También, los datos de imagen del vídeo del ojo derecho en el flujo de vídeo se mantienen en el plano del vídeo de la vista derecha. Cuando el plano de vídeo 6 está en el estado DESCONECTADO del modo estéreo, los datos de imagen del vídeo del ojo izquierdo se mantienen en tanto el plano de vídeo de la vista izquierda como el plano del vídeo de la vista derecha.
Cuando el modo estéreo está CONECTADO, en el plano de imagen 8, se escriben los dados de imagen de la vista izquierda en un plano de imagen del ojo izquierdo expresado como el área a la que se proporciona (L), y se escriben los datos de imagen de la vista derecha en un plano de imagen del ojo derecho expresado como el área a la que se proporciona (R). Cada uno de los trozos de datos de imagen está compuesto con la correspondiente imagen de ojo izquierdo o de la vista derecha.
Cuando el plano de imagen 8 está en el estado DESCONECTADO del modo estéreo, los gráficos de subtítulo que corresponden a los datos de imagen de la vista derecha no afectan a la visualización. También, cuando el modo estéreo está DESCONECTADO, el contenido en el plano de imagen 8 es un contenido desplazado en la dirección derecha o izquierda (“Izquierda desplazada” en la Figura 6).
Cuando el modo estéreo está CONECTADO, en el plano de gráficos interactivos 10, los gráficos interactivos de la vista izquierda se escriben en un plano de gráficos interactivos de la vista izquierda expresado como un área a la que se proporciona (L), y los gráficos interactivos de la vista derecha se escriben en un plano de gráficos interactivos de la vista derecha expresado como un área a la que se proporciona (R). Cada uno de los trozos de datos de gráficos interactivos está compuesto con la imagen del ojo izquierdo o de la vista derecha correspondiente.
Cuando el plano de gráficos interactivos 10 está en el estado DESCONECTADO del modo estéreo, los gráficos interactivos de la vista derecha mediante la aplicación no afectan a la visualización. También, cuando el modo estéreo está DESCONECTADO, el contenido en el plano de gráficos interactivos 10 es un contenido que está desplazado en la dirección derecha o izquierda (“Izquierda desplazada” en la Figura 6).
La Figura 7 muestra cómo, cuando el modo de visualización es de 3D, los datos mantenidos en el plano de fondo 11, los datos mantenidos en el plano de vídeo 6, los datos mantenidos en el plano de imagen 8 y los datos mantenidos en el plano de gráficos interactivos 10 están compuestos unos con otros cuando los modos estéreo de todos los planos están CONECTADOS. En el modo estéreo, puede observarse que los datos u4 de fondo de la vista izquierda, el vídeo u3 de la vista izquierda leído desde el flujo de vídeo, los gráficos u2 de la vista izquierda en el plano de imagen 8 y los gráficos u1 de la vista izquierda en el plano de gráficos interactivos 10 están compuestos como la vista izquierda en este orden.
También, puede observarse que los datos u8 de fondo de la vista derecha, el vídeo u7 de la vista derecha leído desde el flujo de vídeo, los gráficos u6 de la vista derecha en el plano de imagen 8 y los gráficos u5 de la vista
15
25
35
45
55
65
E09827327
18-05-2015
derecha en el plano de gráficos interactivos 10 están compuestos como la vista derecha en este orden.
La Figura 8 muestra cómo, cuando el modo de visualización es de 3D, los datos mantenidos en el plano de fondo 11, los datos mantenidos en el plano de vídeo 6, los datos mantenidos en el plano de imagen 8 y los datos mantenidos en el plano de gráficos interactivos 10 están compuestos unos con otros cuando los modos estéreo de todos los planos están DESCONECTADOS. Cuando los modos estéreo están DESCONECTADOS, puede observarse que los datos r4 de fondo de la vista izquierda, el vídeo r2 de la vista izquierda leído desde el flujo de vídeo, los gráficos r3 de la izquierda desplazada que son los gráficos de la vista izquierda en el plano de imagen 8 que se han desplazado en una dirección predeterminada (la dirección derecha en la Figura 8) y los gráficos r1 de la izquierda desplazada que son gráficos de la vista izquierda en el plano de gráficos interactivos 10 que se han desplazado en una dirección predeterminada (la dirección derecha en la Figura 8) están compuestos como la vista derecha en este orden.
También, el plano r8 de fondo de la vista derecha, el vídeo r6 de la vista izquierda leído desde el flujo de vídeo, los gráficos r7 de la izquierda desplazada formados desde los gráficos de la vista izquierda desde los planos de imagen 8 desplazados en la dirección opuesta (la dirección izquierda en la Figura 8), y los gráficos r5 de la izquierda desplazada formados desde los gráficos de la vista izquierda desde los planos de gráficos interactivos 10 desplazados en la dirección opuesta (la dirección izquierda en la Figura 8) están compuestos en este orden para formar una vista derecha.
Lo siguiente describe cambiar entre los modos estéreo en la presente realización.
La Figura 9 muestra el resultado de composición para cada uno de los planos.
Cada uno de 6L y 6R son ejemplos de resultados de composición para el plano de vídeo 6. Puede observarse desde una diferencia en la dirección en que unas caras de la mujer que las imágenes en un flujo de la vista izquierda y las imágenes en un flujo de la vista derecha se toman desde diferentes ángulos. Obsérvese que una diferencia en las direcciones en las que un hombre y la cara de la mujer y una diferencia en las posiciones del hombre y de la mujer en la Figura 9 son esquemáticas, y no muestran direcciones precisas en que el hombre y la cara de la mujer para realizar la visualización estereoscópica. Cuando se visualiza la pantalla de visualización de la televisión 400 a simple vista sin llevar las gafas de obturador de cristal líquido 500, la imagen fotografiada desde este ángulo diferente parece como si se superpusiera en la imagen.
Los subtítulos “I love you” en el plano de imagen 8 es una imagen obtenida decodificado los datos de subtítulo mediante el decodificador de imagen.
Una parte de la GUI que recibe una operación para saltar al anterior o al siguiente en el plano de gráficos interactivos 10 se escribe en el plano de gráficos interactivos 10 mediante la aplicación de BD-J.
6LL es la imagen de la vista izquierda de salida después de la composición, y 6RR es la imagen de la vista derecha de salida después de la composición. Puede observarse que los subtítulos “I love you” están desplazados en la dirección derecha y se componen en la imagen de la vista izquierda de 6LL. También, el subtítulo “I love you” está desplazado en la dirección izquierda en la imagen de la vista derecha de 6RR.
La Figura 10 muestra un ejemplo de un caso donde se visualiza una salida de imagen cuando los modos estéreo de todos los planos están CONECTADOS en la visualización de 3D.
Una imagen de la vista derecha y una imagen de la vista izquierda se filtran a través de las gafas de obturador de cristal líquido 500, por ejemplo, y parecen de manera diferente para los ojos izquierdo y derecho. Obsérvese que los subtítulos “I love you” y la parte de la GUI que recibe la operación para saltar al anterior o al siguiente son diferentes en cada una de las imágenes izquierda y derecha además del hecho de que las imágenes del flujo de vídeo se hacen estereoscópicas componiendo las imágenes del ojo izquierdo y del ojo derecho. Por lo tanto, puede observarse que se mantienen las profundidades del vídeo, los subtítulos y la GUI de manera natural encendiendo el modo estéreo cuando tanto los contenidos del ojo derecho como del ojo izquierdo están preparados con antelación.
La Figura 11 muestra un ejemplo de vídeo estereoscópico que parece en un caso donde el espectador observa, a través de las gafas 500 de obturador, una salida de imagen cuando los modos estéreo de todos los planos excepto para el plano de vídeo 6 están DESCONECTADOS. El modo estéreo del plano de gráficos necesita DESCONECTARSE para discos que no mantienen los subtítulos y GUI estereoscópicos (imágenes separadas para tanto el ojo izquierdo como el derecho). La razón de que un disco pueda no contener subtítulo/GUI estereoscópico puede ser que 1.) El disco no tiene suficiente capacidad para mantener datos para ambos ojos, o 2.) El contenido en el disco se creó para visualización de 2D y los datos estereoscópicos no estén disponibles. Puesto que el modo estéreo del plano de vídeo 6 está CONECTADO en la Figura 11, puede observarse que las imágenes reproducidas en el flujo de la vista izquierda y las imágenes reproducidas en el flujo de la vista derecha se toman del mismo objeto, y se toman desde diferentes ángulos. Mientras tanto, los modos estéreo del plano de imagen 8 y del plano de gráficos interactivos 10 están DESCONECTADOS, y el mismo flujo de subtítulo y las mismas imágenes de GUI que
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
están desplazadas en las direcciones derecha e izquierda están compuestos con el vídeo en el plano de vídeo 6. Por lo tanto, puesto que los subtítulos y la GUI pueden visualizarse más cerca del espectador que el vídeo estereoscópico incluso si únicamente existieran subtítulos y GUI para únicamente un ojo. Esto disminuye la fatiga o estrés producido a los ojos del espectador.
(Control para realizar el efecto estereoscópico)
Lo siguiente describe una dirección en la que los datos mantenidos en el plano de gráficos se desplazan para realizar los efectos estereoscópicos.
Las direcciones a las que el motor de desplazamiento de plano 20 desplaza los datos mantenidos en el plano de gráficos dependen de si los datos mantenidos en el plano de gráficos deberían parecer estereoscópicamente en una posición más hacia atrás del espectador que una posición de la pantalla de visualización o deberían parecer estereoscópicamente en una posición más hacia delante de la pantalla de visualización.
En la presente realización, se presupone que las imágenes de la vista izquierda están desplazadas en la dirección derecha (es decir, los datos parecen salir estereoscópicamente de la pantalla).
Una diferencia entre las coordenadas de cada trozo de datos de píxeles original y coordenadas de cada trozo de datos de píxeles desplazados en la dirección derecha o izquierda se denomina una “distancia de desplazamiento”. La distancia de desplazamiento se ha de calcular de acuerdo con un valor de profundidad que indica cómo de lejos de la parte delantera o de la parte trasera de está una posición de los subtítulos escritos en el plano de imagen 8 o la imagen de gráficos escrita en el plano de gráficos interactivos 10 de la pantalla de visualización. La distancia de desplazamiento puede calcularse también con uso de uno de los parámetros que pueden adoptarse como la disparidad binocular entre ambos de los ojos en un momento de ejecutar la reproducción estereoscópica.
También, el parámetro para desplazar los trozos de datos de píxeles en el plano de gráficos en las direcciones derecha e izquierda mediante la distancia de desplazamiento anteriormente indicada se denomina “compensación de plano”. Mientras que la distancia de desplazamiento es una cantidad de escalado, la compensación de plano es un vector que tiene una polaridad y tamaño positivo o negativo. La compensación de plano indica la dirección, (por ejemplo, dirección izquierda o dirección derecha) en la dirección horizontal de la pantalla de visualización, y la cantidad de desplazamiento en píxeles desde la posición normal (es decir, el estado que aparece visualizado en la pantalla de visualización). En la siguiente descripción, el desplazamiento se ejecuta de acuerdo con la compensación de plano. Las compensaciones de planos pueden representarse como la distancia de desplazamiento real en píxeles (con valor positivo y negativo) o puede representarse como un valor que puede usarse para calcular la distancia de desplazamiento real en píxeles.
Lo siguiente describe los significados de los signos positivo y negativo de la compensación de plano.
La compensación de plano del plano de gráficos muestra cuántos píxeles están desplazadas las coordenadas de cada uno de los trozos de datos de píxeles mantenido en el plano de gráficos de la vista derecha y las coordenadas de cada uno de los trozos de datos de píxeles mantenido en el plano de gráficos de la vista izquierda.
Cuando el espectador desea obtener un efecto de que el vídeo en el plano de gráficos salga de la pantalla, el motor de desplazamiento de plano 20 desplaza los datos mantenidos en el plano de gráficos de la vista izquierda en la dirección derecha mediante la distancia de desplazamiento mostrada mediante la compensación de plano antes de la composición de los trozos de datos en los planos. A continuación el motor de desplazamiento de plano 20 desplaza los datos mantenidos en el plano de gráficos de la vista derecha en la dirección izquierda mediante la distancia de desplazamiento mostrada mediante la compensación de plano. En la presente realización, puede obtenerse un efecto de que las imágenes salen de la pantalla cuando el signo de la compensación de plano es un “signo positivo”.
Cuando el espectador desea obtener un efecto de que las imágenes se visualicen en una posición distante desde el espectador que la posición de la pantalla, el motor de desplazamiento de plano 20 desplaza los datos mantenidos en el plano de gráficos de la vista izquierda en la dirección izquierda mediante la distancia de desplazamiento mostrada mediante la compensación de plano antes de la composición de los trozos de datos en los planos. A continuación el motor de desplazamiento de plano 20 desplaza los datos mantenidos en el plano de gráficos de la vista derecha en la dirección derecha mediante la distancia de desplazamiento mostrada mediante la compensación de plano. En la presente realización, puede obtenerse un efecto de que las imágenes se visualizan en la posición distante desde el espectador que la posición de la pantalla cuando el signo de la compensación de plano es un “signo negativo”.
Cuando la compensación de plano es “0”, el motor de desplazamiento de plano 20 no realiza el desplazamiento, que significa que la imagen se visualiza en el estado normal (para parecer que se visualiza en la pantalla de visualización).
15
25
35
45
55
65
E09827327
18-05-2015
La Figura 12A y la Figura 12B muestran, respectivamente, una imagen en el plano de gráficos de la vista izquierda de la izquierda desplazada en una dirección derecha, y el plano de gráficos de la vista derecha de la izquierda desplazada en la dirección izquierda, en un caso en que el modo de visualización es de 3D, y el modo estéreo de cada plano está DESCONECTADO, la compensación de plano de la imagen de fondo almacenada en el plano de fondo 11 es “0”, la compensación de plano almacenada en el plano de vídeo es “0”, la compensación de plano del plano de imagen es diferente de “0” y la compensación de plano del plano de gráficos interactivos es diferente de “0”.
Como se muestra en la Figura 12A, en el plano de imagen 8, desplazar el plano de gráficos en la dirección derecha da como resultado añadir un área transparente al lado izquierdo del plano de gráficos desplazado y recortar la porción de extremo en el lado derecho. De manera similar, en el plano de gráficos interactivos 10, desplazar el plano de gráficos en la dirección derecha da como resultado añadir un área transparente al lado izquierdo del plano de gráficos desplazado, y recortar la porción de extremo en el lado derecho.
Como se muestra en la Figura 12B, en el plano de imagen 8, desplazar el plano de gráficos en la dirección izquierda da como resultado añadir un área transparente al extremo derecho del plano de gráficos desplazado y recortar la porción de extremo en el lado izquierdo. De manera similar, en el plano de gráficos interactivos 10, desplazar el plano de gráficos en la dirección izquierda da como resultado añadir un área transparente al extremo derecho del plano de gráficos desplazado y recortar la porción final en el lado izquierdo.
El desplazamiento de plano ejecutado cuando el modo estéreo está DESCONECTADO produce el efecto óptico de producir que los gráficos en el plano de imagen y en el plano de gráficos interactivos parezcan en una posición más hacia la parte frontal de la pantalla de visualización o más hacia atrás de la pantalla de visualización. Lo siguiente describe el principio en que está basado este desplazamiento de plano.
(Principio de realizar vista estereoscópica con desplazamiento de plano)
La Figura 13A ilustra el principio de cómo la imagen parece más hacia la parte frontal de la pantalla de visualización cuando el signo de la compensación de plano es positivo (el motor de desplazamiento de plano 20 desplaza la imagen de gráficos de la vista izquierda en la dirección derecha, y desplaza la imagen de gráficos de la vista derecha en la dirección izquierda).
En cada una de la Figura 31A, Figura 31B y Figura 31C, la imagen visualizada en la pantalla de visualización se indica mediante un círculo.
En primer lugar, puesto que la imagen observada mediante el ojo derecho y la imagen observada mediante el ojo izquierdo están en la misma posición cuando no existe compensación de plano, la posición de enfoque en la que ambos de los ojos observan la imagen está en la posición de visualización (Figura 13A). Como resultado, la imagen visualizada se sitúa en la pantalla de visualización.
Mientras tanto, cuando el aparato de reproducción 200 está en el modo de visualización de 3D, y el modo estéreo está DESCONECTADO, la imagen observada mediante el ojo izquierdo debería aparecer en una posición desplazada más a la derecha en comparación con el caso donde la compensación de plano es “0”. En este momento, el ojo derecho debería cubrirse mediante las gafas de obturador de cristal líquido 500 de modo que el ojo derecho no pueda observar nada. La imagen observada mediante el ojo derecho, por otro lado, debería estar en una posición desplazada más a la izquierda en comparación con el caso donde la compensación de plano es “0”. En este momento, el ojo izquierdo debería cubrirse mediante las gafas de obturador de cristal líquido 500 de modo que el ojo izquierdo no pueda observar nada (Figura 13B).
Nosotros nos centramos en la imagen con uso de ambos de los ojos para reconocer la imagen en la posición de enfoque. Por consiguiente, cuando se realiza cambio entre un estado en el que el ojo izquierdo observa la imagen y un estado en el que el ojo derecho observa la imagen mediante las gafas de obturador de cristal líquido 500 a un corto intervalo de tiempo, ambos de nuestros ojos intentan enfocar en la imagen en una posición más cerca de nosotros que la posición de la pantalla de visualización. Como resultado, tenemos una ilusión como si la imagen estuviera en la posición de enfoque más cerca de nosotros que la posición de la pantalla de visualización (Figura 13C).
La Figura 14A, Figura 14B y Figura 14C describen los principios de cómo parece la imagen estar distante del espectador de la pantalla de visualización cuando el signo de la compensación de plano es negativo (el motor de desplazamiento de plano 20 desplaza la imagen de gráficos de la vista izquierda en la dirección izquierda, y desplaza la imagen de gráficos de la vista derecha en la dirección derecha).
En cada una de la Figura 14A, Figura 14B y Figura 14C, la imagen visualizada en la pantalla de visualización se indica mediante un círculo. En primer lugar, puesto que la imagen observada mediante el ojo derecho y la imagen observada mediante el ojo izquierdo están en la misma posición cuando no existe compensación de plano, la posición de enfoque en la que ambos de los ojos observan la imagen es la posición de la pantalla de visualización
15
25
35
45
55
65
E09827327
18-05-2015
(Figura 14A). La imagen visualizada resultante se sitúa en la pantalla de visualización. Mientras tanto, cuando el aparato de reproducción 200 está en el modo de visualización de 3D, y el modo estéreo está DESCONECTADO, la imagen observada mediante el ojo izquierdo debería parecer en una posición más a la izquierda en comparación con el caso donde la compensación es “0”. En este momento, el ojo derecho debería cubrirse mediante las gafas de obturador de cristal líquido 500 de modo que el ojo derecho no pueda observar nada. La imagen observada mediante el ojo derecho, por otro lado, debería estar en una posición más a la derecha en comparación con el caso donde la compensación es “0”. En este momento, el ojo izquierdo debería cubrirse mediante las gafas de obturador de cristal líquido 500 de modo que el ojo izquierdo no pueda observar nada (Figura 14B).
Cuando se realiza cambio entre un estado en el que el ojo izquierdo observa la imagen y un estado en el que el ojo derecho observa la imagen mediante las gafas de obturador de cristal líquido 500 a un corto intervalo de tiempo, ambos de nuestros ojos intentan enfocar en la imagen en una posición más distante desde nosotros que la posición de la pantalla de visualización. Como resultado, tenemos una ilusión como si la imagen estuviera en la posición de enfoque más distante de nosotros que la posición de la pantalla de visualización (Figura 14C).
Esto concluye la descripción de la imagen de gráficos escrita en el plano de gráficos. Sin embargo, no es necesario decir que el mismo concepto de la compensación anteriormente indicada puede aplicarse al plano de gráficos interactivos 10, al plano de vídeo 6 y al plano de fondo 11.
(Crear nivel de salida/profundidad)
Las Figura 15A y 15B muestran ejemplos de diferencias en vista entre compensaciones de plano positivas y negativas.
Una imagen que representa los datos de gráficos que están más cerca del espectador en cada una de la Figura 15A y la Figura 15B es una imagen de gráficos para la vista derecha (imagen de gráficos de la vista derecha) después de desplazar. Una imagen que representa los datos de gráficos que están distantes desde el espectador en cada una de la Figura 15A y la Figura 15B es una imagen de gráficos para la vista izquierda (imagen de gráficos de la vista izquierda) después de desplazar.
La Figura 15A muestra un caso donde el signo de la compensación de plano es positivo (el motor de desplazamiento de plano 20 desplaza la imagen de gráficos de la vista izquierda en la dirección derecha, y desplaza la imagen de gráficos de la vista derecha en la dirección izquierda). Cuando el signo de la compensación de plano es positivo, como se muestra en la Figura 13, los subtítulos a componerse con el vídeo de la vista izquierda parecen estar en una posición más a la derecha que los subtítulos a componerse con el vídeo de la vista derecha. Es decir, desde un punto de convergencia (posición de enfoque) están más cercanos al espectador que la posición de la pantalla, los subtítulos parecen estar también más cerca del espectador que la posición de la pantalla.
La Figura 15B muestra un caso donde el signo de la compensación de plano es negativo. Como se muestra en la Figura 14, cuando el signo de la compensación de plano es negativo, los subtítulos a componerse con el vídeo de la vista derecha parecen estar en una posición más a la izquierda que los subtítulos a componerse con el vídeo de la vista derecha. Es decir, desde un punto de convergencia (posición de enfoque) están más distantes del espectador que la posición de la pantalla, los subtítulos parecen estar también más distantes del espectador que la posición de la pantalla.
Esto concluye la descripción del método para visualizar los subtítulos en una posición más cercana al espectador que la posición de la pantalla de visualización o en una posición más distante del espectador que la posición de la pantalla de visualización cambiando entre la compensación positiva y la compensación negativa.
La anterior descripción ilustra que dependiendo de la compensación de plano en el desplazamiento de plano, una imagen monoscópica parece visualizarse más lejos de la parte delantera de la pantalla de visualización o más lejos de la parte trasera de la pantalla de visualización. Sin embargo, el tamaño de los gráficos de subtítulo dirigidos mediante el desplazamiento de plano no es fijo, y generalmente, el tamaño de los gráficos se cambia para adaptar el procesamiento tal como ampliar o reducir el vídeo, para mejorar la interactividad.
En reproducción normal, el vídeo está a escala completa, y los gráficos de subtítulo se visualizan a un tamaño que corresponde al vídeo de escala completa. En contraste, cuando se cambia a la pantalla de menú, el vídeo se reduce, los gráficos de subtítulo se visualizan a un tamaño que corresponde al vídeo reducido, y es necesario visualizar una GUI necesaria para la pantalla de menú. Lo siguiente describe cómo determinar la compensación de plano en el desplazamiento de plano cuando se realiza escalado para realizar interactividad del vídeo de esta manera. La Figura 17 muestra una imagen estereoscópica vista mediante un usuario cuando se realiza escalado en el vídeo.
Cuando el modo de visualización es de 3D y el modo estéreo del plano de vídeo está CONECTADO, en la imagen de vídeo, si se realiza escalado a un factor de escalado de “1/2”, la anchura horizontal y vertical ambas se reducen a la mitad, y finalmente la imagen de vídeo visualizada estereoscópicamente tiene 1/4 del área de la imagen original.
E09827327
18-05-2015
En este momento, cuando el modo de visualización es de 3D y el modo estéreo del plano de vídeo es está CONECTADO, puesto que las imágenes reproducidas en el flujo de vídeo de la vista izquierda y en el flujo de vídeo de la vista derecha son imágenes que se diferencian en el ángulo visto, cuando se realiza escalado de acuerdo con
5 el factor de escalado, el nivel a la que la imagen sale en visualización estereoscópica cambia también dinámicamente de acuerdo con el factor de escalado.
Sin embargo, cuando el modo de visualización es de 3D, el modo estéreo del plano de imagen está DESCONECTADO, y se realiza escalado de los subtítulos del plano de imagen de acuerdo con el factor de
10 escalado, si la compensación de plano se establece a un valor distinto de “0” en el plano de imagen, puesto que esta compensación de plano no cambia dinámicamente debido al escalado, en la imagen compuesta, el espectador se siente molesto debido a la fuerte sensación de que los subtítulos están saliendo.
Lo mismo se cumple cuando el modo de visualización es de 3D y el modo estéreo del plano de gráficos interactivos 15 está DESCONECTADO.
Esto se describe con uso de un ejemplo sencillo.
La Figura 18A, Figura 18B y Figura 18C ilustran qué ocurre cuando una compensación de plano del plano de imagen
20 debe cambiarse de acuerdo con el escalado del vídeo, cuando el modo de visualización es de 3D, el modo estéreo del plano de vídeo está CONECTADO y cuando el modo de visualización es de 3D y el modo estéreo del plano de imagen está DESCONECTADO.
En la Figura 18A, Figura 18B y Figura 18C, el objeto mostrado como un círculo es un ejemplo de una imagen
25 estereoscópica virtual visible para el ojo humano reproducida en el flujo de vídeo de la vista izquierda y en el flujo de vídeo de la vista derecha, visualizada desde el plano XZ, y en el presente ejemplo, la imagen estereoscópica parece más lejos de la parte delantera de la pantalla de visualización.
También, se supone que la compensación del plano de imagen se ha ajustado de modo que la posición donde los 30 subtítulos aparecen de manera virtual es más lejos de la parte delantera de la imagen estereoscópica virtual.
La Figura 18A muestra un caso para visualizar el vídeo en pantalla completa, y la Figura 18B muestra un caso para visualizar un vídeo reducido. El nivel de salida del vídeo cuando se visualiza el vídeo reducido cambia dinámicamente de acuerdo con el grado de reducción. Sin embargo, puesto que la posición donde los subtítulos
35 aparecen de manera virtual se determina mediante un valor fijo dado mediante la compensación del plano de imagen, y la compensación no cambia debido al procesamiento de reducción, a menos que se cambie la compensación del plano de imagen de acuerdo con la escala, la posición de los subtítulos parece saltar de manera extraña.
40 La Figura 19 muestra esquemáticamente un ejemplo del nivel de salida mostrado en la Figura 18.
El aparato de reproducción en la presente realización proporciona una estructura para resolver este problema técnico.
45 Específicamente, el aparato de reproducción de la presente realización ajusta dinámicamente la compensación del plano de imagen de acuerdo con la escala del vídeo. Específicamente, cuando un vídeo reducido se visualiza como se muestra en la Figura 18C, ajustar (en este ejemplo, hacer más pequeño) la compensación del plano de imagen lleva a la posición donde los subtítulos aparecen de manera virtual más cerca de la pantalla de visualización.
50 La Figura 19 muestra una imagen estereoscópica visualizada cuando el procesamiento de la presente realización no se realiza, es decir, cuando el contenido visualizado cuando el vídeo se reduce se visualiza como está después de aplicar desplazamiento de plano, o una compensación de plano especificada mediante el usuario antes de que se use el escalado.
55 En contraste, considérese un caso en el que una compensación de plano E obtenida multiplicando el factor de escalado por la compensación de plano D usada para componer con el vídeo antes de que se aplique el escalado al desplazamiento de plano del plano de imagen. Puesto que el factor de escalado se multiplica por la compensación de plano D que tiene el significado del nivel de salida de los píxeles en el plano de imagen, el grado de salida se hace menor. A continuación el subtítulo se lleva cerca de los alrededores de una imagen escalada de una persona.
60 De esta manera, el subtítulo está cerca de la imagen escalada de la persona, eliminando por lo tanto la sensación de desequilibrio entre el nivel de salida de la imagen de la persona y del subtítulo.
La Figura 20 muestra una imagen estereoscópica visualizada cuando se realiza el procesamiento de la presente realización, es decir cuando una compensación del plano obtenida multiplicando por un factor de escalado se aplica
65 al desplazamiento de plano del plano de imagen.
E09827327
18-05-2015
En la Figura 20, a diferencia de la Figura 19, el subtítulo está cerca de la imagen escalada de la persona, eliminando por lo tanto la sensación de desequilibrio entre el nivel de salida de la imagen de la persona y el subtítulo.
De esta manera, para eliminar la sensación de desequilibrio, es necesario proporcionar un mecanismo para calcular
5 una compensación de plano óptima, teniendo en cuenta el factor de escalado, en el motor de desplazamiento de plano 20. El motor de desplazamiento de plano 20 en la Figura 21 incorpora un mecanismo de este tipo para calcular la compensación de plano óptima. Lo siguiente describe el motor de desplazamiento de plano 20 con referencia a la Figura 21.
10 La Figura 21 muestra una estructura interna ejemplar del motor de desplazamiento de plano 20 del aparato de reproducción 200 que pertenece a la presente realización. Como se muestra en la Figura 21, el motor de desplazamiento de plano 20 incluye una unidad de almacenamiento de valor de compensación 41, una unidad de almacenamiento de factor de escalado 42, una unidad de cálculo de compensación de plano 43 y una unidad de desplazamiento 44.
15 (Unidad de almacenamiento de valor de compensación 41)
La unidad de almacenamiento de valor de compensación 41 almacena contenido desde la unidad de ajuste de compensación 21, o un valor de compensación especificado desde el usuario.
20 (Unidad de almacenamiento de factor de escalado 42)
La unidad de almacenamiento de factor de escalado 42 almacena información de ampliación antes del escalado. Por ejemplo, la unidad de almacenamiento de factor de escalado 42 almacena información que indica “1” cuando el
25 vídeo no se escala, que indica “1/2” cuando se escala a la mitad de tamaño, y “2” cuando se amplía a dos veces el tamaño.
(Unidad de cálculo de compensación de plano 43)
30 La unidad de cálculo de compensación de plano 43 realiza cálculo para convertir, en unidades de píxeles, una distancia de desplazamiento para la unidad de desplazamiento 44 para realizar desplazamiento en la vista del tamaño de pantalla y el escalado basándose en el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41. Para dar un ejemplo de funcionamiento específico, cuando el factor de escalado se especifica que es “1/2”, se obtiene una nueva “compensación de plano E” multiplicando la ampliación
35 de escalado almacenada en la unidad de almacenamiento de factor de escalado 42 por el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41.
(Tratamiento de los resultados de cálculo)
40 A continuación, lo siguiente describe el tratamiento de los resultados de cálculo que siguen al punto decimal. El cálculo mediante la unidad de cálculo de compensación de plano 43 se realiza junto con la multiplicación con el factor de escalado, y en este caso, el tratamiento de los valores numéricos que siguen al punto decimal es un problema. La razón por esto es que la distancia de desplazamiento debe ser un entero, puesto que la distancia de desplazamiento indica el desplazamiento por un número de longitudes de píxeles. Cuando la unidad 43 de operación
45 de compensación de plano realiza el cálculo, cuando un valor numérico que sigue el punto decimal aparece en la unidad de cálculo, estos valores numéricos que siguen el punto decimal se llevan al siguiente entero. Por ejemplo, esto significa que si el resultado del cálculo mediante la unidad de cálculo de compensación de plano 43 es “3,2”, el resultado de la operación se hace que sea “4”.
50 Redondeando la porción después del punto deciman en el resultado de la operación hasta el siguiente entero de esta manera se denomina una “operación de redondeo”. En la presente realización, cuando se ejecuta esta operación cuando se multiplica con el factor de escalado, la operación de redondeo se realiza en el resultado del cálculo, y la porción después del punto decimal en el resultado del cálculo se lleva hasta el siguiente entero.
55 (Influencia de demanda para mantenimiento de resolución)
A continuación, lo siguiente describe la influencia de demanda para mantenimiento de resolución desde la aplicación. Incluso durante el escalado cuando se establece un ajuste MANTENER_RESOLUCIÓN (KEEP_RESOLUTION), la unidad de cálculo de compensación de plano 43 ejecuta un cálculo de la distancia de
60 desplazamiento de acuerdo con el factor de escalado. El ajuste MANTENER_RESOLUCIÓN es una función para realizar ampliación/reducción únicamente en el plano de vídeo sin ampliar/reducir el plano de gráficos interactivos en el momento de la instrucción de escalado. Hacer esto posibilita cambiar la profundidad de los subtítulos de manera síncrona con la profundidad del vídeo en el momento de MANTENER_RESOLUCIÓN.
65
15
25
35
45
55
65
E09827327
18-05-2015
(Unidad de desplazamiento 44)
La unidad de desplazamiento 44 realiza el desplazamiento hacia un eje ancho si el plano de imagen basándose en un valor calculado mediante la unidad de cálculo de compensación de plano 43.
La Figura 22, muestra tres factores de escalado de 1/1, 1/2, 1/4, e imágenes compuestas de gráficos que incluyen subtítulos y GUI en casos cuando se aplican los factores de escalado.
La parte frontal muestra un par de una imagen izquierda y una imagen derecha cuando el factor de escalado es 1/1, la parte media muestra un par de una imagen izquierda y una imagen derecha cuando el factor de escalado es 1/2 y la parte trasera muestra un par de una imagen izquierda y una imagen derecha cuando el factor de escalado es 1/4.
Estos dibujos muestran ejemplos para visualizar una imagen compuesta en una posición en la parte superior izquierda de la pantalla de visualización, por ejemplo, cuando el factor de escalado es 1/2 o 1/4.
Cuando el factor de escalado es 1/2, el número de píxeles verticales y el número de píxeles horizontales se hace 1/2, y la imagen se visualiza en tamaño reducido en el lado izquierdo de la pantalla. Cuando el factor de escalado es 1/4, el número de píxeles verticales y el número de píxeles horizontales se hace 1/4, y la imagen se visualiza en tamaño reducido en el lado izquierdo de la pantalla.
En las figuras 22A, 22B, y 22C, un vídeo en que están compuestos subtítulos y la GUI se dirige para escalado. Sin embargo, en el procesamiento de la GUI realizado junto con el escalado, se proporciona a la GUI para visualización de pantalla completa, y en la visualización de pantalla completa de la GUI, la imagen compuesta se coloca en el área superior izquierda. Se pretende retirar la GUI como un objetivo de escalado cuando se dibuja principalmente una porción distinta de la porción visualizada en la imagen compuesta de los subtítulos/vídeo visualizados en el área de la parte superior izquierda, y en este caso únicamente la imagen compuesta de los subtítulos y del vídeo es el objetivo de escalado.
También, se ha descrito la GUI como un ejemplo de datos de gráficos interactivos dibujados mediante la aplicación de BD-J. Sin embargo, los datos de gráficos interactivos dibujados mediante la aplicación de BD-J incluyen también imágenes de gráficos tales como vídeo y animación, así como la GUI.
En tales casos, si los datos de gráficos interactivos dibujados mediante la aplicación de BD-J son un objetivo para escalar de manera similar a los subtítulos y el vídeo, los datos de gráficos interactivos pueden configurarse para reducirse junto con la reducción de los subtítulos/vídeo. En este caso, los datos de fondo almacenados en el plano de fondo 11 se visualizan en la porción negra mostrada en la Figura 22.
En las imágenes del ojo derecho y del ojo izquierdo en las Figuras 22A, 22B, y 22C, es evidente que después de escalar, la distancia de desplazamiento de los subtítulos se ajusta de acuerdo con el tamaño del plano de vídeo, en contraste a la estructura compuesta antes de escalar. Esto posibilita evitar una diferencia de nitidez en la sensación estereoscópica, reduciendo la fatiga para el ojo, y realizando una visualización más natural.
La Figura 24 muestra dos factores de escalados de 1/1 y 1/2, e imágenes compuestas de gráficos de subtítulo en casos cuando se aplican los factores de escalado.
Cuando el factor de escalado es 1/1, no existe la GUI, pero si el factor de escalado es 1/2, se visualiza la GUI. La mitad derecha de la pantalla de la televisión 400 muestra un comentario cm 1 del director escrito mediante el director de una película, y la mitad inferior de la pantalla de la televisión 400 incluye un miembro bn1 de botón para recibir las operaciones de salto siguiente y salto anterior, un miembro bn2 de botón para recibir una llamada de menú, y un miembro bn4 de botón para recibir conexión de red. Estos son los mismos que se muestran en la Figura 1.
Cuando el objetivo del escalado es el vídeo compuesto con gráficos de subtítulo, el objetivo del desplazamiento de plano es únicamente el plano de imagen, y el objetivo de calcular la compensación de plano E, es también únicamente la compensación de plano E en el plano de imagen.
Esto completa la descripción del motor de desplazamiento de plano 20. Lo siguiente describe los detalles del plano de imagen dirigido para el desplazamiento de plano. En primer lugar, con el uso de la Figura 26, se describe la estructura general del plano de imagen, y a continuación, se describe cómo se realiza el movimiento de píxeles en el plano de imagen.
Cada una de la Figura 26A y la Figura 26B muestran una estructura interna ejemplar del plano de imagen 8. Cuando la resolución se establece a 1920×1080. El plano de imagen 8 está compuesto de elementos de memoria de 8 bits de longitud, y tiene un tamaño de 1920 (horizontal) × 1080 (vertical) como se muestra en la Figura14A. Esto significa que el plano de imagen 8 tiene una resolución de 1920×1080, y tiene una asignación de memoria que puede almacenar un código de píxeles de 8 bits para cada píxel. Los códigos de píxeles de 8 bits almacenados en los elementos de memoria se convierten en valores de Y, Cr, y Cb mediante conversión de color usando la tabla de
15
25
35
45
55
65
E09827327
18-05-2015
correspondencia de color. La relación de correspondencia entre los códigos de píxeles y los valores de Y, CR y Cb se define mediante un segmento de definición de paleta en los datos de subtítulo.
La Figura 26B muestra trozos de datos de píxeles mantenidos en el plano de imagen 8. Como se muestra en la Figura14B, los datos de gráficos mantenidos en el plano de imagen 8 están compuestos de trozos de datos de píxeles que componen un área de primer plano (parte que componen los subtítulos “I love you”) y trozos de datos de píxeles que componen un área de fondo. Los códigos de píxeles que se muestran transparentes se almacenan en los elementos de memoria que corresponden al área de fondo. En esta área, el vídeo en el plano de vídeo 6 puede observarse a través de cuando los datos de gráficos mantenidos en el plano de imagen 8 están compuestos con el vídeo en el plano de vídeo 6. Mientras tanto, los códigos de píxeles que muestran colores excepto para el transparente (no transparente) se almacenan en los elementos de memoria que corresponden al área de primer plano. Los subtítulos se escriben mediante los valores de Y, Cr, y Cb mostrando cada uno el no transparente. En el área que corresponde a los píxeles transparentes, la imagen de fondo almacenada en el plano de fondo 11 situada más abajo de los subtítulos, o el contenido del vídeo almacenado en el plano de vídeo, parecen transparentes. El área transparente contribuye a realizar la composición de plano.
La Figura 27A, Figura 27B y Figura 27C muestran los trozos de datos de píxeles que componen el área de primer plano y los trozos de datos de píxeles que componen el área de fondo después de que se ha realizado el desplazamiento en la dirección derecha o el desplazamiento en la dirección izquierda. La Figura 27A muestra los trozos de datos de píxeles antes del desplazamiento, y la Figura 27B muestra los trozos de datos de píxeles después de que se realiza el desplazamiento en la dirección derecha. Puede observarse que una letra “y” en los subtítulos “I love you” desaparece de la pantalla después del desplazamiento cuando la distancia de desplazamiento es 15 píxeles. La Figura 27C muestra trozos de datos de píxeles después de que se realiza el desplazamiento en la dirección izquierda. Puede observarse que “o” en los subtítulos “you” que siguen a los subtítulos “I love” aparecen cuando la distancia de desplazamiento es 15 píxeles.
Esto concluye la descripción de la estructura interna del plano de imagen 8, y la descripción de las disposiciones de los trozos de datos de píxeles antes y después de que el motor de desplazamiento de plano 20 realice el desplazamiento en el plano de imagen 8. Lo siguiente describe la estructura interna del plano de gráficos interactivos 10, y las disposiciones de los trozos de datos de píxeles mantenidos en la estructura interna del plano de gráficos interactivos 10 antes y después del desplazamiento.
Cada una de la Figura 28A y la Figura 28B muestran la estructura interna del plano de gráficos interactivos 10. Cuando la resolución se establece a 1920×1080, el plano de gráficos interactivos 10 está compuesto de elementos de memoria de 32 bit de longitud, y tiene un tamaño de 1920×1080 como se muestra en la Figura 28A. Esto significa que el plano de gráficos interactivos 10 tiene una resolución de 1920×1080, y tiene una asignación de memoria que puede almacenar unos valores de R, G, B, y α de 33 bits por píxel. Los valores de R, G, B y α de 32 bits están compuestos de un valor de R de 8 bits, un valor de G de 8 bits, un valor de B de 8 bits y una transparencia α de 8 bits, respectivamente.
La Figura 28B muestra datos de píxeles mantenidos en el plano de gráficos interactivos 10. Como se muestra en la Figura 28B, los gráficos mantenidos en el plano de gráficos interactivos 10 están compuestos de datos de píxeles que corresponden a una porción de primer plano (la GUI para recibir una operación para saltar a capítulos anteriores y posteriores), y datos píxeles que corresponden a una porción de fondo. Los elementos de memoria que corresponden al área de fondo almacenan valores R, G, B y α que se muestran transparentes. En esta área, los subtítulos en el plano de imagen y el vídeo en el plano de vídeo 6 son transparentes cuando los datos de gráficos mantenidos en el plano de gráficos interactivos 10 están compuestos con los datos mantenidos en el plano de vídeo
6. Mientras tanto, los elementos de memoria que corresponden al área de primer plano almacenan valores R, G y B que muestran los colores no transparentes. Los gráficos se escriben con uso de estos valores R, G y B que muestran los colores no transparentes.
Los datos de gráficos mantenidos en el plano 10 de gráficos de fondo, el vídeo en el plano de vídeo 6 y los datos de gráficos mantenidos en el plano de imagen 8 pueden observarse a través de cuando el plano de primer plano tiene un píxel transparente y la unidad de composición 16 compone estos trozos de datos en los respectivos planos. El área transparente contribuye a realizar la composición.
Esto concluye la descripción de los trozos de datos de píxeles que componen el área de primer plano y los trozos de datos de píxeles que componen el área de fondo después de que se ha realizado el desplazamiento en la dirección derecha y el desplazamiento en la dirección izquierda.
La Figura 29A, Figura 29B y Figura 29C muestran los datos de píxeles que componen el área de primer plano y los datos de píxeles que componen el área de fondo después de que se ha realizado el desplazamiento en la dirección derecha y el desplazamiento en la dirección izquierda. La Figura 29A muestra datos de píxeles antes de que se realice el desplazamiento, y la Figura 29B muestra datos de píxeles después de que se ha realizado el desplazamiento en la dirección derecha. En este caso, puede observarse que la GUI para recibir una operación de
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
salto a capítulos anteriores y posteriores se desplaza en la dirección derecha. La Figura 29C muestra datos de píxeles después de que se realiza el desplazamiento en la dirección izquierda. Puede observarse que la GUI para recibir una operación de salto a capítulos anteriores y posteriores se desplaza en la dirección izquierda.
La Figura 30A, Figura 30B y Figura 30C muestran el procedimiento para el proceso de desplazamiento de plano del plano de imagen 8.
La Figura 30A muestra el plano de imagen que se ha desplazado en la dirección izquierda y el plano de imagen que se ha desplazado en la dirección derecha.
La Figura 30B muestra el proceso de desplazamiento del plano de imagen a la dirección derecha. Como se muestra en la Figura 30B, el desplazamiento horizontal del plano de imagen a la dirección derecha toma las siguientes etapas (1-1), (1-2) y (1-3). (1-1) El motor de desplazamiento de plano 20 recorta un área del extremo derecho del plano de imagen 8. (1-2) El motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los datos de píxeles en el plano de imagen 8 horizontalmente a la dirección derecha mediante una distancia de desplazamiento mostrada mediante la compensación de plano E. (1-3) El motor de desplazamiento de plano 20 añade un área transparente en el extremo izquierdo del plano de imagen 8.
La Figura 30C muestra el proceso de desplazamiento del plano de imagen a la dirección izquierda. Como se muestra en la Figura 30C, el desplazamiento horizontal del plano de imagen a la dirección izquierda toma las siguientes etapas (2-1), (2-2) y (2-3). (2-1) El motor de desplazamiento de plano 20 recorta un área del extremo izquierdo del plano de imagen 8. (2-2) El motor de desplazamiento de plano 20 desplaza las coordenadas de los datos de píxeles en el plano de imagen 8 horizontalmente a la dirección izquierda mediante una distancia de desplazamiento mostrada mediante la compensación de plano E. (2-3) El motor de desplazamiento de plano 20 añade un área transparente al extremo derecho de los datos de gráficos mantenidos en el plano de imagen 8.
A continuación, se describen los significados de los signos positivo y negativo de las compensaciones de planos.
Cuando el aparato de reproducción 200 está en el modo de visualización de 3D y el modo estéreo del plano de imagen 8 está DESCONECTADO, el aparato de reproducción 200 realiza la composición después de realizar el siguiente procesamiento en los planos basándose en la distancia de desplazamiento mostrada mediante las compensaciones de planos E.
Cuando se establece el signo positivo de la compensación de plano E, el motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los datos de píxeles en el plano de imagen 8 de la vista izquierda en la dirección derecha mediante la distancia de desplazamiento indicada mediante la compensación de plano E. A continuación, el motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los datos de píxeles en el plano de imagen 8 de la vista derecha en la dirección izquierda mediante la distancia de desplazamiento indicada mediante la compensación de plano E.
Cuando se establece el signo negativo de la compensación de plano, el motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los datos de píxeles en el plano de imagen 8 de la vista izquierda en la dirección izquierda mediante la distancia de desplazamiento indicada mediante la compensación de plano E antes de la composición de los datos en los respectivos planos. A continuación, el motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los trozos de datos de píxeles en el plano de imagen 8 de la vista derecha en la dirección derecha mediante la distancia de desplazamiento indicada mediante la compensación de plano E.
La Figura 31A, Figura 31B y Figura 31C muestran el procedimiento para desplazar el plano de gráficos interactivos
10.
La Figura 31A muestra el plano de gráficos interactivos que se ha desplazado en la dirección izquierda y el plano de gráficos interactivos que se ha desplazado en la dirección derecha.
La Figura 31B muestra el proceso de desplazamiento del plano de gráficos interactivos a la dirección derecha. Como se muestra en la Figura 31B, el desplazamiento horizontal del plano de gráficos interactivos a la dirección derecha toma las siguientes etapas (1-1), (1-2) y (1-3). (1-1) El motor de desplazamiento de plano 20 recorta un área del extremo derecho del plano de gráficos interactivos 10. (1-2) El motor de desplazamiento de plano 20 desplaza las coordenadas de los datos de píxeles en el plano de gráficos interactivos 10 horizontalmente a la dirección derecha mediante una distancia de desplazamiento indicada mediante la compensación de plano E. (1-3) El motor de desplazamiento de plano 20 añade un área transparente en el extremo derecho del plano de gráficos interactivos 10.
La Figura 31C muestra el proceso de desplazamiento del plano de gráficos interactivos a la dirección izquierda. Como se muestra en la Figura 31C, el desplazamiento horizontal del plano de gráficos interactivos a la dirección izquierda toma las siguientes etapas (2-1), (2-2) y (2-3). (2-1) El motor de desplazamiento de plano 20 recorta un área del extremo izquierdo del plano de gráficos interactivos 10.
15
25
35
45
55
65
E09827327
18-05-2015
(2-2) El motor de desplazamiento de plano 20 desplaza las coordenadas de cada uno de los trozos de datos de píxeles en el plano de gráficos interactivos 10 horizontalmente en la dirección izquierda mediante una distancia de desplazamiento indicada mediante la compensación de plano E. (2-3) El motor de desplazamiento de plano 20 añade un área transparente en el extremo izquierda del plano de gráficos interactivos 10.
Lo siguiente describe el tamaño del área del extremo derecho y del área del extremo izquierdo de los datos de gráficos a recortarse, y el tamaño de las áreas a añadirse en el extremo derecho y en el extremo izquierdo de los datos de gráficos, en el plano de gráficos interactivos 10, en el momento de desplazar las coordenadas de cada uno de los trozos de datos de píxeles en los respectivos planos. La compensación de plano E usada para el desplazamiento anteriormente indicado es un valor que responde a la disparidad binocular entre el ojo derecho y el ojo izquierdo. Esto significa que cada uno: del número de píxeles horizontales que componen el área del extremo derecho a recortarse; el número de píxeles horizontales que componen el área del extremo izquierdo de los datos de gráficos a recortarse en el plano de gráficos; y el número de píxeles horizontales que componen el área transparente a añadirse a cada uno de los extremos derecho e izquierdo de los datos de gráficos mantenidos en el plano de gráficos necesitan ser el número de longitudes de píxeles que corresponden a la compensación de plano.
Por lo tanto, el número de píxeles horizontales que componen el área del extremo derecho a recortarse y el número de píxeles horizontales que componen el área del extremo izquierdo a recortarse en el plano de gráficos es el número de longitudes de píxeles que corresponden a la distancia de desplazamiento indicada mediante la compensación de plano E. También, el número de píxeles verticales que componen las áreas transparentes es el número de longitudes de píxeles que corresponden a la altura del plano de gráficos.
De manera similar, el número de píxeles horizontales que componen las áreas transparentes a añadirse a cada uno de los extremos derecho y final de la imagen de gráficos mantenidos en el plano de gráficos es el número de longitudes de píxeles que corresponden a la distancia de desplazamiento indicada mediante la compensación de plano E. El número de píxeles verticales que componen las áreas transparentes es el número de longitudes de píxeles que corresponden a la altura del plano de gráficos.
Esto concluye la descripción del proceso de desplazar el plano de imagen 8 y el plano de gráficos interactivos 10. Lo siguiente describe los significados de los signos positivo y negativo de la compensación de plano E.
Cuando el modo de visualización es de 3D y el modo estéreo del plano de gráficos interactivos 10 está DESCONECTADO, el aparato de reproducción 200 realiza la composición después de realizar el siguiente proceso en los planos basándose en la compensación de plano E.
Cuando se establece el signo positivo de la compensación de plano E, el motor de desplazamiento de plano 20 desplaza el plano de gráficos de la vista izquierda en la dirección derecha mediante la distancia de desplazamiento mostrada mediante la compensación de plano E. También, el motor de desplazamiento de plano 20 desplaza el plano de gráficos de la vista derecha mediante la mediante la distancia de desplazamiento mostrada mediante la compensación de plano E.
Cuando se establece el signo negativo de la compensación de plano E, el motor de desplazamiento de plano 20 desplaza el plano de gráficos de la vista izquierda en la dirección izquierda mediante la distancia de desplazamiento mostrada mediante la compensación de plano. Y, el motor de desplazamiento de plano 20 desplaza el plano de gráficos de la vista derecha en la dirección derecha mediante la distancia de desplazamiento mostrada mediante la compensación de plano E.
(Desplazamiento de las coordenadas de los datos de píxeles en los elementos de memoria respectivos en el plano de gráficos)
Lo siguiente describe cómo el motor de desplazamiento de plano 20 desplaza las coordenadas de los datos de píxeles en los elementos de memoria en el plano de gráficos debido al desplazamiento anteriormente indicado. Los datos de gráficos están compuestos de trozos de datos de píxeles, y tienen una resolución, por ejemplo, de 1920×1080 o 1280×720.
La Figura 32 muestra los trozos de datos de píxeles mantenidos en el plano de gráficos. En la Figura 32, los fotogramas cuadrados son elementos de memoria que almacenan 32 bits u 8 bits de información. Los valores numéricos hexadecimales tales como 0001, 0002, 0003, 0004, 07A5, 07A6, 07A7, 07A8, 07A9, 07AA y 07AB son direcciones asignadas en serie a estos elementos de memoria en el espacio de memoria de la MPU. También, cada uno de los valores numéricos tales como (0, 0), (1, 0), (2, 0), (3, 0), (1916, 0), (1917, 0), (1918, 0) y (1919, 0) en los respectivos elementos de memoria muestran coordenadas de qué datos de píxeles se almacenan en un elemento de memoria correspondiente.
Los datos de píxeles en un par de coordenadas (0, 0) se almacenan en el elemento de memoria cuya dirección es 0001. Los datos de píxeles cuyas coordenadas son (1, 0) se almacenan en un elemento de memoria cuya dirección es 0002. Los datos de píxeles cuyas coordenadas son (1919, 0) se almacenan en un elemento de memoria cuya
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
dirección es 07A8. Los datos de píxeles cuyas coordenadas son (0, 1) se almacenan en un elemento de memoria cuya dirección es 07A9. Es decir, puede observarse que los datos de gráficos se almacenan de manera que una pluralidad de líneas que componen los gráficos están compuestas de elementos de memoria que tienen direcciones dispuestas en serie. Por lo tanto, estos trozos de datos de píxeles pueden leerse en un modo en ráfaga realizando secuencialmente la transferencia de DMA en los elementos de memoria a los que se proporcionan las direcciones de serie.
Cada una de la Figura 33A y Figura 33B muestran qué se mantiene en el plano de gráficos después de que se ha realizado el desplazamiento.
La Figura 33A muestra el plano de gráficos después de que se han desplazado las coordenadas de cada uno de los trozos de datos de píxeles en la dirección derecha siendo la compensación de plano E “3”. Puesto que la compensación de plano E es “3”, los datos de píxeles cuyas coordenadas son (0, 0) en un sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 0004, los datos de píxeles cuyas coordenadas son (1, 0) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 0005 y los datos de píxeles cuyas coordenadas son (2, 0) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de almacenamiento cuya dirección es 0006.
También, puede observarse que los datos de píxeles cuyas coordenadas son (0, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07AC, los datos de píxeles cuyas coordenadas son (1, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07AD y los datos de píxeles cuyas coordenadas son (2, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07AE.
La Figura 33B muestra el plano de gráficos después de que el motor de desplazamiento de plano 20 ha desplazado las coordenadas de los trozos de datos de píxeles en la dirección izquierda siendo la compensación de plano E “3”. Puesto que la compensación de plano E es “3”, puede observarse que los datos de píxeles cuyas coordenadas son (3, 0) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 0001, los datos de píxeles cuyas coordenadas son (4, 0) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 0002 y los datos de píxeles cuyas coordenadas son (5, 0) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 0003.
También, puede observarse que los datos de píxeles cuyas coordenadas son (3, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07A9, los datos de píxeles cuyas coordenadas son (4, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07AA y los datos de píxeles cuyas coordenadas son (5, 1) en el sistema de coordenadas del plano de gráficos se almacenan en un elemento de memoria cuya dirección es 07AB.
Como se ha descrito en lo anterior, puede observarse que, en el plano de gráficos después de que se ha realizado el desplazamiento, las coordenadas de cada uno de los datos de píxeles en el plano de gráficos se desplazan a la derecha o a la izquierda desde las coordenadas originales de cada uno de los trozos de datos de píxeles mediante el número de longitudes de píxeles mostradas mediante la compensación de plano E.
Para realizar el desplazamiento en el plano de gráficos, el motor de desplazamiento de plano 20 necesita desplazar las coordenadas de cada uno de los datos de píxeles que componen los datos de gráficos mediante una cantidad indicada en una dirección predeterminada, una dirección de un elemento de memoria en el que se sitúan cada uno de los trozos de datos de píxeles que componen los datos de gráficos. No es necesario decir que el motor de desplazamiento de plano 20 puede realizar el desplazamiento en el plano de gráficos sin cambiar la dirección del elemento de memoria en el que se disponen cada uno de los trozos de datos de píxeles, realizando el procesamiento que corresponde al procesamiento anteriormente indicado.
Esto concluye la descripción de qué se mantiene en el plano de gráficos después de que el motor de desplazamiento de plano 20 ha realizado el desplazamiento.
Como se ha descrito anteriormente, el desplazamiento de plano se implementa para realizar control de cómo mover las coordenadas de píxeles en la memoria, y se realiza mediante software suministrado en el aparato de reproducción, por así decirlo. En contraste, puesto que un programa para control de reproducción proporcionado desde un BD-ROM es una aplicación de código de bytes escrita en lenguaje Java como se ha descrito anteriormente, el ejecutor de la aplicación de código de bytes existe en el aparato de reproducción 200. Lo siguiente describe la estructura interna de una unidad 22 de plataforma de BD-J que ejecuta aplicaciones de código de bytes.
La Figura 31 muestra una estructura interna de la unidad de plataforma de BD-J. Como se muestra en la Figura 31, la plataforma de BD-J 22 está compuesta de una memoria de montón 31, un intérprete de código de bytes 32, un soporte intermedio 33, un cargador de clases 34 y un gesto de aplicación 35.
15
25
35
45
55
65
E09827327
18-05-2015
(Memoria de montón 31)
La memoria de montón 31 es un área de pila en la que se disponen el código de bytes de la aplicación de sistema, el código de bytes de la aplicación de BD-J, un parámetro de sistema usado mediante la aplicación de sistema y un parámetro de aplicación usado mediante la aplicación de BD-J.
(Intérprete de código de bytes 32)
El intérprete de código de bytes 32 convierte los códigos de bytes que componen la aplicación de BD-J almacenada en la memoria de montón 31 y los códigos de bytes que componen la aplicación de sistema en códigos nativos y produce que la MPU ejecute los códigos convertidos.
(Soporte intermedio 33)
El soporte intermedio 33 es un sistema operativo para el software embebido, y está compuesto de un núcleo y un controlador de dispositivo. El núcleo proporciona a la aplicación de BD-J con funciones específicas para el aparato de reproducción 200 de acuerdo con llamadas de la interfaz de programación de aplicación (API) desde la aplicación de BD-J. También, el núcleo realiza control de hardware tal como iniciar una unidad de manejador de interrupciones mediante una señal de interrupción.
(Cargador de clases 34)
El cargador de clases 34 es una de las aplicaciones de sistema, y carga la aplicación de BD-J leyendo los códigos de bytes desde los ficheros de clases que existen en el fichero del archivo JAR, y almacena los códigos de bytes en la memoria de montón 31.
(Gestor de aplicación 35)
El gestor de aplicación 35 es una de las aplicaciones de sistema, y realiza la señalización de aplicación de la aplicación de BD-J tal como iniciar la aplicación de BD-J o finalizar la aplicación de BD-J, basándose en la tabla de gestión de aplicación en el objeto de BD-J.
Esto concluye la descripción de la estructura interna de la unidad de la plataforma de BD-J.
En el modelo de capas anteriormente indicado, la unidad de ajuste de visualización inicial de ajuste de modo de visualización 28 está en la capa inferior de la unidad de la plataforma, que establece un modo de visualización y una resolución basándose en el objeto de BD-J en el título actual usado mediante la unidad de la plataforma de BD-J.
(Estructura interna de la unidad de almacenamiento de modo de visualización 29)
La unidad de almacenamiento de modo de visualización 29 puede referenciarse a partir del modelo de capas anteriormente indicado. Por lo tanto, la unidad de almacenamiento de modo de visualización 29 puede referenciarse a partir del modelo de capas mediante la API, e incluye información que muestra un ajuste y un estado de cada uno del plano de gráficos de fondo 11, del plano de vídeo 6, del plano de imagen 8 y del plano de gráficos interactivos
10. Lo siguiente describe la estructura de la unidad de almacenamiento de modo de visualización 29, en referencia a la Figura 35.
La Figura 35 muestra qué se almacena en la unidad de almacenamiento de modo de visualización 29.
En la Figura 35, la unidad de almacenamiento de modo de visualización 29 almacena información sobre el ajuste del plano de fondo 11, información sobre el ajuste del plano de vídeo 6, información sobre el ajuste del plano de imagen 8, información sobre el ajuste del plano de gráficos interactivos 10 e información sobre el estado del modo de visualización que muestra si el aparato de reproducción 200 está en el modo de 2D o en el modo de 3D. “Resolución (:YY × ZZ en la Figura 35)” y un modo estéreo (:CONECTADO o DESCONECTADO en la Figura 35) y un ajuste de TRES_D (THREE_D) (:CONECTADO o DESCONECTADO en la Figura 35) se almacenan como elementos de ajuste de cada plano. Además de los elementos de ajuste anteriormente indicados, la compensación de plano puede establecerse en un intervalo de “-63” a “+63” en el ajuste del plano de imagen 8 y en el ajuste del plano de gráficos interactivos 10.
Como se muestra en la Figura 35, si se usan diferentes valores para la compensación de plano establecida en el plano de imagen y la compensación de plano establecida en el plano de gráficos interactivos, los gráficos de subtítulo y la GUI parecen visualizarse en diferentes posiciones en el eje Z. En este caso, la unidad de almacenamiento de valor de compensación en la Figura 21 está configurada para almacenar dos compensaciones de plano, en concreto, la compensación de plano establecida en el plano de imagen y la compensación de plano establecida en el plano de gráficos interactivos.
10
15
20
25
30
35
40
45
50
55
60
65
E09827327

18-05-2015
Lo siguiente describe la resolución soportada mediante la unidad de almacenamiento de modo de visualización 29.
Cuando el aparato de reproducción 200 está en el modo de visualización de 2D, la unidad de almacenamiento de modo de visualización 29 soporta una resolución de 1920×1080 píxeles, una resolución de 1280×720 píxeles, una resolución de 720×576 píxeles y una resolución de 720×480 píxeles para el plano de fondo 11, el plano de vídeo 6, el plano de imagen 8 y el plano de gráficos interactivos 10, como el ajuste de visualización inicial.
Esto concluye la descripción de qué se almacena en la unidad de almacenamiento de modo de visualización 29.
(Unidad de ajuste de visualización inicial de ajuste de modo de visualización 28)
Lo siguiente describe el ajuste de visualización inicial mediante la unidad de ajuste de visualización inicial de ajuste de modo de visualización 28. Incluso durante un periodo cuando se ha seleccionado un título, y el objeto de BD-J que corresponde a ese título es válido en el aparato de reproducción, existen casos en los que la aplicación que opera actualmente llama a una instancia de reproductor de JMF de acuerdo con una operación de usuario, por lo tanto inicia la reproducción de una nueva lista de reproducción si se inicia una nueva lista de reproducción de esta manera, es necesario resetear el ajuste del modo de visualización en el título.
Como funciones de la unidad de ajuste de visualización inicial de ajuste de modo de visualización 28, debe proporcionarse soporte para un ajuste de modo de visualización entre títulos cuando el título cambia, un ajuste de modo de visualización usado cuando la lista de reproducción cambia en el título, y un ajuste de modo de visualización para cuando la aplicación llama explícitamente a la API y establece el modo de visualización. Específicamente, puede crearse un programa para producir a la MPU ejecutar los procedimientos de procesamiento indicados en el diagrama de flujo descrito a continuación, y este programa puede implementarse por incorporación en el aparato de reproducción.
La Figura 36 es un diagrama de flujo que muestra procedimientos de procesamiento para ajustar el modo de visualización cuando se cambia el título. En este diagrama de flujo, la etapa S24, la etapa S25 y la etapa S27 se ejecutan de manera selectiva de acuerdo con los resultados de la determinación de la etapa S21, la etapa S22, la etapa S23 y la etapa S26.
La etapa S21 es una determinación de si existe o no la lista de reproducción de auto reproducción, y la etapa S22 es una determinación de si el modo de visualización inmediatamente anterior es un modo de visualización de 3D. La etapa S23 es una determinación de si la lista de reproducción de auto reproducción del título seleccionado es o no una lista de reproducción de 3D con una resolución de 1920×1080 o una lista de reproducción de 3D con una resolución de 1280×720.
Cuando la lista de reproducción de auto reproducción no existe, se determina si la resolución por defecto del objeto de BD-J es HD3D_1920×1080, o HD3D_1280×720 en la etapa S26. Si la determinación de la etapa S26 es Sí, el modo de visualización se establece a un modo de visualización de 3D, y la resolución se establece a 1920×1080 o a 1280×720 en la etapa S25. Si la determinación de la etapa S26 es No, el modo de visualización se establece a un modo de visualización de 2D en la etapa S27, y la resolución se establece a una resolución por defecto en el objeto de BD-J.
Cuando existe la lista de reproducción de auto reproducción, se determina si el modo de visualización inmediatamente anterior es o no el modo de visualización de 2D en la etapa S22. Si la etapa S22 es Sí, se determina si la lista de reproducción es o no una lista de reproducción de 3D en la etapa S23 y la resolución es 1920×1080 y 1280×720 en la etapa S23. Si la determinación de la etapa S22 o de la etapa 23 es No, el modo de visualización se establece al modo de visualización de 2D, y se establece una resolución a la resolución de la lista de reproducción de auto reproducción en la etapa S24.
Si la determinación de la etapa S22 es Sí, y la determinación de la etapa S23 es también Sí, el modo de visualización se establece a un modo de visualización de 3D, y la resolución se establece a 1920×1080 y 1280×720 de acuerdo con la resolución de la lista de reproducción de auto reproducción en la etapa S25.
Esto concluye la descripción de procedimientos de procesamiento para ajustar los modos de visualización en el título.
La Figura 37 es un diagrama de flujo que muestra los procedimientos de procesamiento para ajustar el modo de visualización en el título. En este diagrama de flujo, la etapa S31 y la etapa S32 están conectadas en serie una con la otra. En primer lugar, el ajuste de los modos de visualización en el título se inicia realizando la solicitud para reproducir la lista de reproducción. Cuando se recibe la solicitud para reproducir las listas de reproducción, la etapa S31 determina si el estado actual es o no de 3D. Si el estado es de 2D, el modo de visualización se establece a un modo de visualización de 2D en la etapa S34. La etapa S32 es una determinación de si la lista de reproducción solicitada para reproducirse es o no una lista de reproducción de 3D. Si la lista de reproducción es la lista de
15
25
35
45
55
65
E09827327
18-05-2015
reproducción de 3D, se realiza la etapa S33 y el modo de visualización se establece al modo de visualización de 3D. Si la lista de reproducción es la lista de reproducción de 2D, se realiza la etapa S34 y el modo de visualización se establece al modo de visualización de 2D.
Esto concluye la descripción de los procedimientos de procesamiento para establecer el modo de visualización en el título.
(Implementación del motor de control de reproducción 14)
Cuando se selecciona una lista de reproducción actual debido a algún factor, el motor de control de reproducción 14 reproduce la lista de reproducción actual. Específicamente, el motor de control de reproducción 14 necesita realizar procesamiento de: leer información de la lista de reproducción que corresponde a la lista de reproducción actual en la memoria de escenario fijo 13; y reproducir un flujo de 3D y un flujo de 2D referenciados mediante la información de elemento de reproducción en la información de lista de reproducción. Más específicamente, es necesario: crear un programa que ejecute procedimientos de procesamiento indicados mediante el diagrama de flujo a continuación; instalar el programa en el aparato de reproducción 200; y producir que la MPU ejecute el programa.
La Figura 38 es un diagrama de flujo que muestra procedimientos principales para reproducir la lista de reproducción en el modo de BD-J.
La etapa S40 es una determinación de si el número de lista de reproducción actual se establece ajustando la lista de reproducción de auto inicio en el objeto de BD-J que se refiere al título seleccionado, o la generación de la instancia de reproductor de JMF. Si se establece el número de lista de reproducción actual, un fichero de información de lista de reproducción indicado mediante el número de lista de reproducción actual se carga en la memoria de escenario fijo en la etapa S41. Si existe una compensación de plano en la información de lista de reproducción en la etapa S42, la unidad de ajuste de compensación establece la compensación de plano como el valor de compensación de plano en el motor de desplazamiento de plano 20. A continuación, se establece el modo de visualización en el título en la etapa S43.
En la etapa S44, se establece el primer número de elemento de reproducción en la información de lista de reproducción cargada al número de elemento de reproducción actual. En la etapa S45, el flujo actual se selecciona de entre los flujos de PES que se permiten reproducir en la información de lista de reproducción actual.
En la etapa S46, se decide qué número de un flujo se usa basándose en la información de elemento de reproducción.
En la etapa S47, se determina si el modo de visualización determinado en la etapa S43 es el modo de visualización de 2D o el modo de visualización de 3D. Si el modo de visualización es el modo de visualización de 3D, el motor de control de reproducción 14 ejecuta la reproducción del flujo de vídeo de 3D en el modo de visualización de 3D en la etapa S49. Si el modo de visualización es el modo de visualización de 2D, se realiza la etapa S48.
La etapa S48 son determinaciones de si el flujo de vídeo indiciado mediante el número de flujo actual y si los subtítulos son de 2D o de 3D. Si se determina que el flujo de vídeo y los subtítulos son de 2D en la etapa S48, el motor de control de reproducción 14 ejecuta la reproducción de un flujo de AV de 2D en el modo de visualización de 2D en la etapa S51. Si se determina que el flujo de vídeo y los subtítulos son de 3D, el motor de control de reproducción 14 ejecuta la reproducción del flujo de vídeo de 3D en el modo de visualización de 2D en la etapa S50. Finalmente, cuando el procedimiento alcanza el “fin” en la Figura 38, se inicia la reproducción de la lista de reproducción.
La Figura 39 es un diagrama de flujo que muestra procedimientos de reproducción basándose en la información de elemento de reproducción.
En la etapa S60, se establece la compensación de plano D embebida en el flujo de vídeo en el motor de desplazamiento de plano 20. En la etapa S61, un elemento de reproducción actual. Tiempo de entrada y un elemento de reproducción actual. Tiempo de salida se convierte en un Start_SPN[i] y End_SPN[i] respectivamente, con uso de un mapa de entrada que corresponde a la ID de un paquete del flujo de la vista izquierda.
SubPlatItemIn_Time y SubPlayItemOut_Time especificados con uso de un mapa de entrada [j] que corresponde a una ID de paquete [j] del flujo de la vista derecha se convierten en Start_SPN[j] y End_SPN[j], respectivamente (etapa S62).
El motor de control de reproducción 14 especifica un punto que cae en un intervalo de lectura [i] para leer Start_SPN[i] hasta End_SPN[i] de un paquete de TS [i] de la ID del paquete [i] (etapa S63). El motor de control de reproducción 14 especifica un punto que pertenece a un intervalo de lectura para leer Start_SPN[j] hasta End_SPN[j] de un paquete de TS [j] de la ID del paquete [j] (etapa S64). El motor de control de reproducción 14 ordena a la unidad ordenar direcciones de los puntos que pertenecen a los intervalos de lectura [i] y [j] en un orden ascendente
15
25
35
45
55
65
E09827327
18-05-2015
en la etapa S65, y leer secuencialmente estos puntos que pertenecen a los intervalos de lectura [i] y [j] con uso de las direcciones ordenadas en la etapa S66.
Esto concluye la descripción del motor de control de reproducción 14.
La Figura 40 es un diagrama de flujo que muestra procedimientos de procesamiento de visualización de 3D de un flujo de 3DAV. El presente diagrama de flujo es para ejecutar un bucle compuesto de las etapas S602 a S606. Este bucle continúa ejecutando secuencialmente el procesamiento del procesamiento del ojo izquierdo (etapa S602) y el procesamiento del ojo derecho (etapa S603) hasta que finaliza la salida de fotogramas (etapa S606:NO).
Obsérvese que el procesamiento para extraer la compensación de plano D desde la información de lista de reproducción actual y almacenar la compensación de plano D en el motor de desplazamiento de plano ya se ha realizado en la etapa S42 de la Figura 38.
En el presente bucle, la etapa S604 es una determinación en relación con si la compensación de plano D se establece en la unidad de almacenamiento de valor de compensación 41, y si no se establece la compensación de plano D, el procesamiento salta a la etapa S605, pero si se establece la compensación de plano D, se ejecuta la etapa S605. La etapa S605 es procesamiento para cálculo de compensación realizado mediante la unidad 43 de cálculo de compensación mostrada en la Figura 21, con uso de la compensación de plano D almacenado en la unidad de almacenamiento de valor de compensación 41, y actualizar la compensación de plano E en el motor de desplazamiento de plano 20.
(Procedimientos de procesamiento para el flujo de vídeo de 3D en el momento del modo de visualización de 3D)
Cuando el modo de visualización actual es el modo de visualización de 3D, y los objetivos de reproducción son la lista de reproducción de 3D y el flujo de 3D, se ejecutan los procedimientos de procesamiento mostrados en la Figura 41 y en la Figura 42.
La Figura 41 es un ejemplo específico de la etapa S602 (procesamiento del ojo izquierdo) mostrado en la Figura 40, por ejemplo, y específicamente, es un diagrama de flujo que muestra un procedimiento del procesamiento del ojo izquierdo cuando el modo de visualización es de 3D.
Las etapas S701 a S707 en la Figura 41 son para procesamiento del ojo izquierdo.
En primer lugar, la unidad de composición 16 obtiene datos de fondo escritos en el plano de fondo 11 de la vista izquierda (el área a la que se proporciona “L” en la Figura 4) para la vista izquierda. El plano de fondo de la vista izquierda almacena los datos de fondo que se han escrito a través del decodificador de imagen fija 27b de acuerdo con la instrucción de representación mediante la aplicación de BD-J.
A continuación, después de que el decodificador de vídeo 5a decodifica el flujo de vídeo de la vista izquierda con uso del decodificador de vídeo 5a, y escribe el flujo de vídeo de la vista izquierda decodificado en el plano de vídeo 6 (al que se proporciona (L) en la Figura 4), la unidad de composición 16 obtiene los datos de vídeo de la vista izquierda escritos en el plano de vídeo 6 (etapa S702).
A continuación, la unidad de composición 16 en la etapa S703 comprueba si el modo estéreo en los ajustes del plano de imagen en la unidad de almacenamiento de modo de visualización 29 está CONECTADO o DESCONECTADO (en lo sucesivo, comprobar si el modo estéreo está CONECTADO o DESCONECTADO se denomina comprobar la bandera del modo estéreo). Si el modo estéreo está DESCONECTADO, la unidad de composición 16 usa el decodificador de imagen 7a para decodificar la imagen de la vista izquierda, y escribe la imagen de la vista izquierda decodificada en el plano de imagen 8 (área a la que se proporciona (L) en la Figura 4), a continuación el motor de desplazamiento de plano 20 realiza el procesamiento de desplazamiento para la vista izquierda (etapa S704a).
Cuando el modo estéreo está CONECTADO, la unidad de composición 16 usa el decodificador de imagen 7a para decodificar la imagen de la vista izquierda, y escribe la imagen de la vista izquierda decodificada en el plano de imagen 8 (área a la que se proporciona el código (L) en la Figura 4). Cuando el modo estéreo está CONECTADO, el motor de desplazamiento de plano 20 no realiza el procesamiento de desplazamiento para la vista izquierda en la imagen de la vista izquierda decodificada en el plano de imagen 8 (área a la que se proporciona el código (L) en la Figura 4). Esto es debido a que, cuando el modo estéreo está CONECTADO, la unidad de composición 16 escribe, en el plano de imagen (área a la que se proporciona una (R) en la Figura 4) mediante el decodificador de imagen 7b, la imagen de la vista derecha que se observa desde el ángulo diferente de la imagen de la vista izquierda (etapa S704b).
El plano de imagen 8 al que se proporciona el código (L) en la etapa S704a o en la etapa S704b mantiene en el mismo los datos de imagen que se almacenan en la memoria 7 de imagen, y se decodifican mediante el decodificador de imagen 7a.
15
25
35
45
55
65
E09827327
18-05-2015
A continuación, la unidad de composición 16 comprueba una bandera del modo estéreo en el ajuste del plano de gráficos interactivos 10 en la unidad 29 de almacenamiento de modo en la etapa S705. Cuando el modo estéreo está DESCONECTADO, la aplicación de BD-J escribe los gráficos 10 interactivos de la vista izquierda en el plano del ojo izquierdo (al que se proporciona el código (L) en el plano de gráficos interactivos 10 en la Figura 4) con uso del motor de representación 22a, y obtiene los gráficos interactivos de la vista izquierda desde el plano del ojo izquierdo (al que se proporciona el código (L) en el plano de gráficos interactivos 10 en la Figura 4). El motor de desplazamiento de plano 20 realiza procesamiento de desplazamiento para el ojo izquierdo en los gráficos interactivos de la vista izquierda obtenidos (etapa S706a).
Cuando el modo estéreo está CONECTADO, la aplicación de BD-J escribe los gráficos interactivos de la vista izquierda en el plano del ojo izquierdo (al que se proporciona el código (L) en el plano de gráficos interactivos 10 en la Figura 4) con uso del motor de representación 22a. Después de eso, aunque la aplicación de BD-J obtiene los gráficos interactivos de la vista izquierda desde el plano del ojo izquierdo (al que se proporciona el código (L) en el plano de gráficos interactivos 10 en la Figura 4) para visualización, el motor de desplazamiento de plano 20 no realiza el procesamiento de desplazamiento para el ojo izquierdo en los gráficos interactivos de la vista izquierda (etapa S706b).
El plano de gráficos interactivos de la vista izquierda desde el que se obtienen los gráficos interactivos de la vista izquierda en la etapa S706a y en la etapa S706b almacena en el mismo los datos que se han escrito a través del motor de representación 22a de acuerdo con la instrucción de representación mediante la aplicación de BD-J en el modo de BD-J.
También, en el modo de HDMV, el plano de gráficos interactivos de la vista izquierda almacena en el mismo el resultado de la decodificación de los datos de gráficos extraídos desde un flujo de gráficos en lugar de los datos de gráficos dibujados mediante la aplicación de BD-J.
En la etapa S707, la unidad de composición 16 compone: los datos de fondo escritos en el plano de fondo 11 al que se proporciona el código (L) en la etapa S701; datos de vídeo escritos en el plano de vídeo 6 al que se proporciona el código (L) en la etapa S702; los datos de subtítulo escritos en el plano de imagen 8 al que se proporciona el código (L) en la etapa S704; y los datos de la GUI escritos en el plano de gráficos interactivos 10 al que se proporciona el código (L) en la etapa S706 en orden. A continuación, los datos compuestos resultantes se emiten a la pantalla como datos de la vista izquierda.
Si se determina que el modo estéreo está DESCONECTADO en la etapa S703 y en la etapa S705, los datos obtenidos como resultado del procesamiento de desplazamiento realizado en los planos correspondientes se usan para la composición. Como el proceso final de la etapa S707, la bandera en la unidad de almacenamiento de procesamiento de izquierda-derecha se cambia cuando los datos se emiten a la pantalla. Obsérvese que cada proceso en la etapa S701 a 707 se procesa como proceso para el ojo izquierdo. Qué ojo procesar se determina haciendo referencia a la unidad 17 de almacenamiento de procesamiento de izquierda-derecha.
A continuación, el procesamiento para el ojo derecho se realiza después de que se completa el procesamiento para el ojo izquierdo en la etapa S701 a S707.
La Figura 42 es un ejemplo específico del procesamiento de la etapa S603 (procesamiento del ojo derecho) mostrado en, por ejemplo, la Figura 40. Específicamente, la Figura 42 es un diagrama de flujo que muestra un ejemplo de procedimientos de procesamiento para procesamiento del ojo derecho cuando el modo de visualización es de 3D. Las etapas S801 a S809 en la Figura 42 son procesamiento del ojo derecho. En la etapa S801, la unidad de composición 16 comprueba la bandera del modo estéreo en el ajuste del plano de fondo 11 en la unidad de almacenamiento de modo de visualización 29 en la etapa S801. Cuando el modo estéreo está DESCONECTADO, la unidad de composición 16 escribe los datos de fondo de la vista izquierda mantenidos en el plano de fondo 11 al que se proporciona el código (R), y obtiene los datos de fondo desde el plano de fondo 11 al que se proporciona el código (R) (etapa S802a). Cuando el modo estéreo está CONECTADO, la unidad de composición escribe los datos de fondo de la vista derecha mantenidos en el plano de fondo 11 al que se proporciona el código (R), y obtiene los datos de fondo de la vista derecha mantenidos en el plano de fondo 11 al que se proporciona el código (R) (etapa S802b).
A continuación, la unidad de composición 16 comprueba la bandera del modo estéreo en el ajuste del plano de vídeo 6 en la unidad de almacenamiento de modo de visualización 29 en la etapa S803. Cuando el modo estéreo está DESCONECTADO, la unidad de composición 16 usa el decodificador de vídeo 5a para decodificar el flujo de vídeo de la vista izquierda, escribe la imagen decodificada en el plano de vídeo 6 (al que se proporciona el código (R) en la Figura 4), y obtiene los datos de vídeo de la vista izquierda desde el plano de vídeo 6 (al que se proporciona el código (R) en la Figura 4) (etapa S804a). Cuando el modo estéreo está CONECTADO, la unidad de composición 16 usa el decodificador de vídeo 5b para decodificar el flujo de vídeo de la vista derecha, escribe el flujo del vídeo de la vista derecha decodificado en el plano de vídeo 6 (al que se proporciona el código (R) en la Figura 4), y obtiene los datos del vídeo de la vista derecha desde el plano de vídeo 6 (al que se proporciona el código (R) en la Figura 4) (etapa S804b).
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
A continuación, la unidad de composición comprueba la bandera del modo estéreo en el ajuste del plano de imagen 8 en la unidad de almacenamiento de modo de visualización 29 en la etapa S805. Cuando el modo estéreo está DESCONECTADO, la unidad de composición 16 escribe la imagen de la vista izquierda decodificada mediante el decodificador de imagen 7a en el plano de imagen 8 (área a la que se proporciona el código (R)). Después de eso, el motor de desplazamiento de plano 20 realiza procesamiento para el ojo derecho en la imagen de la vista izquierda escrita en el plano de imagen 8 (al que se proporciona el código (R)) (etapa S806a). Cuando el modo estéreo está CONECTADO, la unidad de composición 16 escribe, en el plano de imagen 8 (al que se proporciona el código (R)), la imagen de la vista derecha decodificada mediante el decodificador de imagen 7a. Sin embargo, cuando el modo estéreo está CONECTADO, el motor de desplazamiento de plano 20 no realiza el procesamiento de desplazamiento. Esto es debido a que cuando el modo estéreo está CONECTADO, una imagen de la vista derecha, es decir, diferente en ángulo visualizado desde la imagen de la vista izquierda se escribe mediante el decodificador de imagen 7b en el plano de imagen 8 (área a la que se proporciona (R) en la Figura 4) (etapa S806b).
El plano de imagen 8 desde el que se obtienen las imágenes en la etapa S806a y en la etapa S806b almacena en el mismo los datos de subtítulo que se han almacenado en la memoria 7 de imagen, y se decodifican mediante el decodificador 7 de imagen (decodificadores de imagen 7a o 7b en la Figura 4).
A continuación, la unidad de composición 16 comprueba la bandera del modo estéreo en el ajuste del plano de gráficos interactivos 10 en la unidad de almacenamiento de modo de visualización 29 en la etapa S807. Cuando el modo estéreo está DESCONECTADO, el plano del ojo derecho (área a la que se proporciona el código (R) en el plano de gráficos interactivos 10 en la Figura 4) contiene gráficos interactivos de la vista izquierda escritos mediante la aplicación de BDJ usando el motor de representación 22a. A continuación el motor de desplazamiento de plano 20 realiza el procesamiento de desplazamiento para el ojo derecho en los gráficos interactivos de la vista izquierda escritos en el plano del ojo derecho (área a la que se proporciona el código (R) en el plano de gráficos interactivos 10 en la Figura 4) (etapa S808a).
Cuando el modo estéreo está CONECTADO, la aplicación de BD-J usa el motor de representación 22a para escribir los gráficos interactivos de la vista derecha en el plano del ojo derecho (área a la que se proporciona el código (R) en el plano de gráficos interactivos 10 en la Figura 4). Sin embargo, el motor de desplazamiento de plano 20 no realiza el procesamiento de desplazamiento en los gráficos interactivos de la vista derecha escritos en el plano del ojo derecho (área a la que se proporciona el código (R) en el plano de gráficos interactivos 10 en la Figura 4) (etapa S808b).
En la etapa S809, la unidad de composición 16 compone: los datos de fondo escritos en el plano de fondo 11 (al que se proporciona el código (R)) en la etapa S802; los datos de vídeo escritos en el plano de vídeo 6 (al que se proporciona el código (R)) en la etapa S804; los datos de imagen escritos en el plano de imagen 8 (al que se proporciona el código (R)) en la etapa S806; y los datos de la GUI escritos en el plano de gráficos interactivos 10 en la etapa S808 en orden.
En caso de que el modo estéreo esté DESCONECTADO en la etapa S805 y en la etapa S807, los datos obtenidos como resultado del procesamiento de desplazamiento realizado en el plano correspondiente se direccionan para la composición. Los datos compuestos resultantes se emiten a la pantalla como los datos de la vista derecha en la etapa S806b y en la etapa S808b. Cuando finalmente en la etapa S809 los datos compuestos se emiten a la pantalla, se cambia la bandera en la unidad 17 de almacenamiento de procesamiento de izquierda-derecha. Obsérvese que de la etapa S801 a la etapa S809 se procesa para el ojo derecho. Ya sea o no el proceso actual para el ojo derecho se determina haciendo referencia a la unidad de almacenamiento de procesamiento de izquierdaderecha 19.
Mientras se introducen fotogramas continuamente, se repite el procesamiento de la etapas S602, S603, S604 y S605 (si es SÍ en S604) en la Figura 40 (etapa S606).
Esto concluye la descripción del procesamiento de flujo cuando el modo de visualización es 3D.
Obsérvese que cuando se adopta el método para obtener la compensación de plano D desde el área de encabezamiento del flujo de AV en el aparato de reproducción, y se implementa la actualización de cada fotograma, es necesario actualizar un valor de compensación en el motor de desplazamiento de plano 20 a un valor que corresponde al siguiente fotograma mediante la unidad de ajuste de compensación 21 durante la etapa S810.
La Figura 43A es un diagrama de flujo para ilustrar un ejemplo específico de la etapa S702 en la Figura 41 y de la etapa S804a mostrado en la Figura 42.
En primer lugar, el flujo de vídeo de la vista izquierda se decodifica con uso del decodificador de vídeo 5a, y se emite como datos de vídeo (etapa S201).
A continuación, se realiza una determinación en cuanto a si el factor de escalado es “1” (etapa S202).
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
Por ejemplo se referencia un factor de escalado especificado mediante la plataforma de BD-J 22, y se realiza la determinación basándose en el valor referenciado.
En la presente realización, puede referenciarse el valor de factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20. Sin embargo, la presente invención no está limitada a esto. El motor de escalado 15 puede incluir una unidad de almacenamiento de factor de escalado (no representada en los dibujos) que almacena un factor de escalado especificado mediante la plataforma de BD-J 22. También, la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20 puede proporcionarse en el aparato de reproducción pero fuera del motor de escalado 15. El motor de escalado 15 y el motor de desplazamiento de plano 20 pueden proporcionarse en el aparato de reproducción, y pueden referenciar el factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42, es decir, proporcionarse externamente al motor de desplazamiento de plano 20.
A continuación, en la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el número de píxeles horizontales en los datos de vídeo decodificado (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de vídeo se escriben, de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, en el plano de vídeo 6 de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización (etapa S203).
En este punto, como procesamiento específico de la etapa S702, en la etapa S203, en contraste a escribir los datos en el área dado el código (L) en el plano de vídeo 6 en la etapa S203, en el procesamiento específico de la etapa S804, en la etapa S203, los datos se escriben en el área dado el código (R) en el plano de vídeo 6.
Por ejemplo, esto significa que cuando el factor de escalado es 1/2, los datos se escriben en el plano de vídeo de modo que los datos de vídeo se visualizan en la porción de la parte superior izquierda de la pantalla de visualización como se muestra en la Figura 22, y cuando el factor de escalado es 1/4, los datos se escriben en el plano de vídeo de modo que los datos de vídeo se visualizan en la parte superior izquierda de la pantalla de visualización como se muestra en la Figura 22. También, aunque en la descripción anterior, los datos se escriben en el plano de vídeo de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con los píxeles horizontales y verticales convertidos, el aparato puede configurarse también para determinar la posición de visualización de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
En la etapa S202, cuando el factor de escalado se ha determinado que es “1”, (cuando se determina “No” es en la etapa S202), los datos de vídeo del flujo de vídeo de la vista izquierda decodificado se escriben en el plano de vídeo 6 con uso del decodificador de vídeo 5a (etapa S204).
En este punto, en el procesamiento específico de la etapa S702, en contraste a la etapa S204 en la que los datos se escriben en el área dado el código (L) en el plano de vídeo 6, en el procesamiento específico de la etapa S804a, en la etapa S204, los datos se escriben en el área dado el código (R) en el plano de vídeo 6.
La etapa S204 significa que, por ejemplo, si el factor de escalado es 1/1, se realiza escritura en el plano de vídeo de modo que los datos de vídeo se visualizan en pantalla completa, como se muestra en la Figura 22.
La Figura 43B es un diagrama de flujo que muestra un ejemplo específico de la etapa S804 en la Figura 42.
En primer lugar, con uso del decodificador de vídeo 5b, se decodifica el flujo de vídeo de la vista derecha y se emite el flujo de vídeo (etapa S201b).
A continuación, se realiza una determinación de que el factor de escalado no es “1” (etapa S202).
En la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el decodificador de vídeo que decodificó los datos realiza una conversión desde el número de píxeles horizontales (el número de longitudes de píxeles en la dirección horizontal de la pantalla de visualización) y el número de píxeles verticales (el número de longitudes de píxeles en la dirección vertical de la pantalla de visualización) a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, realiza procesamiento de ampliación/reducción), y escribe los datos de vídeo para los que se ha convertido el número de píxeles horizontales y el número de píxeles verticales en el plano de vídeo 8 (área dado el código (R)) de modo que los datos de vídeo se visualizan en una posición predeterminada de la pantalla de visualización (etapa S203b).
15
25
35
45
55
65
E09827327
18-05-2015
En la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S202), con uso del decodificador de vídeo 5b, los datos de vídeo del flujo de vídeo de la vista derecha decodificado se escriben en el plano de vídeo 6 (área dado el código (R)) (S204b).
La Figura 16A es un diagrama de flujo que ilustra un ejemplo de procesamiento específico en la etapa S704b en la Figura 41. En la Figura 16A, en primer lugar, con uso del decodificador de imagen 7a, se decodifica el flujo de subtítulo de la vista izquierda (etapa S201c).
A continuación, se realiza una determinación en cuanto a si el factor de escalado no es “1” (etapa S202).
En la siguiente etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el decodificador de vídeo 5a o 5b que decodificó los datos realiza una conversión desde el número de píxeles horizontales (el número de longitudes de píxeles en la dirección horizontal de la pantalla de visualización) y el número de píxeles verticales (el número de longitudes de píxeles en la dirección vertical de la pantalla de visualización) a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, realiza procesamiento de ampliación/reducción), y escribe los datos de vídeo para los que se ha convertido el número de píxeles horizontales y el número de píxeles verticales en el plano de vídeo 8 (área dado (L) en la Figura 4) de modo que los datos de vídeo se visualizan en una posición predeterminada de la pantalla de visualización (la etapa S203c).
Por ejemplo cuando el factor de escalado es 1/2, como se muestra en el lado izquierdo de la Figura 22B, los datos de vídeo se llevan a la parte superior izquierda de la pantalla de visualización, y los datos de subtítulo se escriben en el plano de imagen para visualizarse en el tamaño que corresponde al subtítulo. Cuando el factor de escalado es 1/4, como se muestra en el lado izquierdo de la Figura 22A, los datos de vídeo se llevan a la parte superior izquierda de la pantalla de visualización, y los datos de subtítulo se escriben en el plano de imagen para visualizarse en el tamaño que corresponde al subtítulo. También, aunque en la descripción anterior, se realiza la conversión al número de píxeles verticales, y los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con el número de píxeles horizontales convertidos y número de píxeles verticales convertidos, la posición de visualización de los datos de subtítulo puede determinarse en su lugar de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
En la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S202), con uso del decodificador de imagen 7a, los datos de vídeo del flujo de vídeo de la vista izquierda decodificado se escriben en el plano de imagen 8 (área dado (L) en la Figura 4) (S204c).
Por ejemplo el factor de escalado es 1/1, y como se muestra en el lado izquierdo de la Figura 22C, los datos de subtítulo se escriben en el plano de imagen 8 para visualizarse en un tamaño correspondiente cuando los datos de vídeo se visualizan en pantalla completa.
La Figura 23A es un diagrama de flujo que ilustra un ejemplo específico de la etapa S806 mostrado en la Figura 42. En la Figura 23A, en primer lugar, con uso del decodificador de imagen 7b, se decodifica el flujo de subtítulo de la vista derecha (etapa S201e).
A continuación, se realiza una determinación en cuanto a si el factor de escalado no es “1” (etapa S202).
En la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el número de píxeles horizontales en los datos de vídeo decodificado (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y el número de píxeles horizontales convertidos y número de píxeles verticales convertidos se escriben en el plano de imagen 8 (área dado (R) en la Figura 4) de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización (etapa S203e).
Por ejemplo cuando el factor de escalado es 1/2, los datos de subtítulo se escriben en el plano de imagen para visualizarse en el tamaño que corresponde al subtítulo cuando los datos de vídeo se llevan a la parte superior izquierda de la pantalla de visualización como se muestra en el lado derecho de la Figura 22B. Cuando el factor de escalado es 1/4, los datos de subtítulo se escriben en el plano de imagen para visualizarse en el tamaño que corresponde al subtítulo cuando los datos de vídeo se llevan a la parte superior izquierda de la pantalla de visualización como se muestra en el lado derecho de la Figura 22A.
También, aunque en la descripción anterior, se realiza la conversión al número de píxeles verticales, y los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, la posición de visualización de los
15
25
35
45
55
65
E09827327
18-05-2015
datos de subtítulo puede determinarse en su lugar de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
En la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S202), con uso del decodificador de imagen 7b, los datos de subtítulo del flujo de subtítulo de la vista derecha decodificado se escriben en el plano de imagen 8 (área dado el código (R)) (S204e).
Esto significa que, por ejemplo, si el factor de escalado es 1/1, los datos de subtítulo se escriben en el plano de imagen 8 a un tamaño correspondiente cuando los datos de vídeo se visualizan en pantalla completa como se muestra en el lado derecho de la Figura 22C.
La Figura 16B es un diagrama de flujo que ilustra un ejemplo específico de la etapa S704b mostrado en la Figura 41. En la Figura 16, en primer lugar, se generan los datos de gráficos interactivos de la vista izquierda (etapa S201d).
Los datos de gráficos interactivos de la vista izquierda pueden generarse, por ejemplo, de acuerdo con un programa de dibujo incluido en la aplicación de BD-J. Más específicamente, los valores de píxeles pueden calcularse de acuerdo con código de programa, o el aparato puede configurase para grabar, con antelación, datos de imagen de gráficos JPEG de la vista izquierda correspondientes en un BD-ROM virtual (el BD-ROM 100 o el almacenamiento Ic local) que puede leerse mediante el sistema de ficheros virtual 3, y el aparato puede configurarse de modo que la aplicación de BD-J lee los datos de imagen de gráficos JPEG de la vista izquierda. En este momento, cuando se codifican y graban los datos de imagen de gráficos JPEG, los gráficos JPEG pueden decodificarse mediante un decodificador no representado en los dibujos o el decodificador de imagen 7a, a continuación leerse.
A continuación, se realiza una determinación en cuanto a si el factor de escalado del plano de gráficos interactivos no es “1” (etapa S202).
A continuación en la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el número de píxeles horizontales en los datos de gráficos interactivos generados (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y el número de píxeles horizontales convertidos y número de píxeles verticales convertidos se escriben en el plano de gráficos interactivos 10 (área dado
(L) en la Figura 4) de modo que los datos de gráficos interactivos se visualizan en una posición predeterminada en la pantalla de visualización (etapa S203d).
Por ejemplo cuando el factor de escalado es 1/2, los datos de gráficos que corresponden a las partes de la GUI se escriben en el plano de gráficos interactivos para visualizarse en un tamaño que se ha reducido en 1/2. Cuando el factor de escalado es 1/4, los datos de gráficos que corresponden a las partes de la GUI se escriben en el plano de gráficos interactivos para visualizarse en un tamaño que se ha reducido en 1/4.
También, aunque en la descripción anterior, se realiza conversión al número de píxeles verticales, y los datos de gráficos interactivos se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, la posición de visualización de los datos de gráficos interactivos puede determinarse en su lugar de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
También, en la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S202), los datos de gráficos interactivos de la vista izquierda generados se escriben en el plano de gráficos interactivos 10 (área dado el código (L)) (S204d).
Por ejemplo, cuando el factor de escalado es 1/1, esto corresponde al caso de visualizar los datos de gráficos interactivos en pantalla completa.
Cuando el factor de escalado del plano de gráficos interactivos no se tiene en cuenta (es decir, cuando el factor de escalado del plano de gráficos interactivos se establece siempre a “1”), la etapa S204d se ha de realizar después de la etapa S201d, y las etapas S202 y S203d pueden borrarse.
Por ejemplo, cuando las imágenes de gráficos interactivos son imágenes de gráficos que corresponden a las partes de la GUI, en el procesamiento de la etapa S203d, la imágenes de gráficos interactivos pueden escribirse en el plano de gráficos interactivos 10 (área dado el código (L)) de modo que las imágenes de gráficos interactivos que corresponden a las partes de la GUI se visualizan en la porción de la pantalla de visualización distinta de la porción donde la imagen de composición del vídeo/subtítulos reducidos cuando se realiza visualización a pantalla completa.
15
25
35
45
55
65
E09827327
18-05-2015
Específicamente, en la Figura 24B, en un estado del factor de escalado que es 1/1 y visualizándose la imagen compuesta de subtítulo y vídeo como una imagen observada desde el ojo izquierdo (el lado izquierdo de la Figura 24B), por ejemplo cuando se recibe una entrada para cambiar a una pantalla de menú, como se muestra en la Figura 24B, el factor de escalado de la imagen compuesta de vídeo y subtítulo se hace 1/2, la imagen compuesta se visualiza en la parte superior izquierda de la pantalla de visualización, la imagen de la GUI que corresponde con la imagen de gráficos y el comentario del director se escriben en el plano de gráficos interactivos (área dado el código (L)), y las imágenes escritas a este plano de gráficos interactivos (área dado el código (L)) están compuestas adicionalmente, y se hacen la imagen compuesta para el ojo izquierdo (véase el lado izquierdo de la Figura 24A).
La Figura 23B es un diagrama de flujo que ilustra un ejemplo específico de la etapa S808b mostrado en la Figura 42. En la Figura 23B, en primer lugar, se generan los datos de gráficos interactivos de la vista derecha (etapa S201f).
Pueden generarse los datos de gráficos interactivos de la vista derecha, por ejemplo, de acuerdo con un programa de dibujo incluido en la aplicación de BD-J. Más específicamente, los valores de píxeles pueden calcularse de acuerdo con código de programa, o el aparato puede configurarse para grabar, con antelación, datos de imagen de gráficos JPEG de la vista derecha correspondientes en un BD-ROM virtual (el BD-ROM 100 o el almacenamiento local 1c) que pueden leerse mediante el sistema de ficheros virtual 3, y el aparato puede configurarse de modo que la aplicación de BD-J lee los datos de imagen de gráficos JPEG de la vista derecha. En este momento, cuando se codifican y graban los datos de imagen de gráficos JPEG, los gráficos JPEG pueden decodificarse mediante un decodificador no representado en los dibujos o el decodificador de imagen 7b, a continuación leerse.
A continuación, se realiza una determinación en cuanto a si el factor de escalado no es “1” (etapa S202). En la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el número de píxeles horizontales en los datos de gráficos interactivos generados (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de gráficos interactivos se escriben en el plano de gráficos interactivos 10 (área dado el código (R) en la Figura 4) para visualizarse en una posición predeterminada en la pantalla de visualización (etapa S203f).
Por ejemplo, cuando el factor de escalado es 1/2, los datos de gráficos que corresponden a las partes de la GUI se escriben en el plano de gráficos interactivos para visualizarse en un tamaño que se ha reducido en 1/2. Cuando el factor de escalado es 1/4, los datos de gráficos que corresponden a las partes de la GUI se escriben en el plano de gráficos interactivos para visualizarse en un tamaño que se ha reducido en 1/4.
También, aunque en la descripción anterior, se realiza conversión al número de píxeles verticales, y los datos de gráficos interactivos se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, la posición de visualización de los datos de gráficos interactivos puede determinarse en su lugar de acuerdo con una especificación desde la aplicación de BD-J, o de acuerdo con una relación de reducción predeterminada.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
A continuación en la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S202), los datos de gráficos interactivos de la vista derecha generados se escriben en el plano de gráficos interactivos 10 (área dado el código (R) en la Figura 4) (S204f).
Por ejemplo, cuando el factor de escalado es 1/1, esto corresponde al caso de visualizar los datos de gráficos interactivos en pantalla completa.
Cuando el factor de escalado del plano de gráficos interactivos no se tiene en cuenta (es decir, cuando el factor de escalado del plano de gráficos interactivos se establece siempre como “1”), la etapa S204f se ha de realizar después de la etapa S201f, y las etapas S202 y S203f pueden borrarse.
Por ejemplo, cuando las imágenes de gráficos interactivos son imágenes de gráficos que corresponden a las partes de la GUI, en el procesamiento de la etapa S203f, la imágenes de gráficos interactivos pueden escribirse en el plano de gráficos interactivos 10 (área dado el código (R)) de modo que las imágenes de gráficos interactivos que corresponden a las partes de la GUI se visualizan en la porción de la pantalla de visualización distinta de la porción donde la imagen compuesta del vídeo/subtítulos reducidos cuando se realiza visualización a pantalla completa.
Específicamente, en la Figura 24B, en un estado del factor de escalado que es 1/1 y visualizándose la imagen compuesta de subtítulo y vídeo como una imagen observada desde el ojo derecho (el lado derecho de la Figura 24B), por ejemplo cuando se recibe una entrada para cambiar a una pantalla de menú, como se muestra en la Figura 24B, el factor de escalado de la imagen compuesta de vídeo y subtítulo se hace 1/2, la imagen compuesta se visualiza en la parte superior izquierda de la pantalla de visualización, la imagen de la GUI que corresponde con la
15
25
35
45
55
65
E09827327
18-05-2015
imagen de gráficos y el comentario del director se escriben en el plano de gráficos interactivos (área dado el código (R)), y las imágenes escritas en este plano de gráficos interactivos (área dado el código (R)) están compuestas adicionalmente, y se hacen la imagen compuesta para el ojo derecho (véase el lado derecho de la Figura 24A).
La Figura 44A es un diagrama de flujo que ilustra un ejemplo específico de la etapa S704a mostrado en la Figura 41.
En primer lugar, con uso del decodificador de imagen 7a, se decodifica el flujo de subtítulo de la vista izquierda, y se emiten los datos de subtítulo decodificados (etapa S406).
Aunque en la etapa S406, se describe una estructura para decodificar el flujo de subtítulo de la vista izquierda, como alternativa, cuando el aparato está configurado de modo que el mismo flujo de subtítulo se comparte entre la visualización derecha e izquierda, puede leerse el flujo de subtítulo de la visualización izquierda y derecha compartido.
Se realiza una determinación en cuanto a si el factor de escalado no es “1” (etapa S407). Esta determinación se realiza, por ejemplo, referenciando un factor de escalado especificado mediante la plataforma de BD-J 22, y determinado de acuerdo con este valor referenciado.
En la presente realización, el valor de factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20 puede referenciarse. Sin embargo, la presente invención no está limitada a esto. El motor de escalado 15 puede incluir una unidad de almacenamiento de factor de escalado (no representada en los dibujos) que almacena un factor de escalado especificado mediante la plataforma de BD-J 22. También, la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20 puede proporcionarse en el aparato de reproducción pero fuera del motor de escalado 15. El motor de escalado 15 y el motor de desplazamiento de plano 20 pueden proporcionarse en el aparato de reproducción, y pueden referenciar el factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42, es decir, proporcionarse externamente al motor de desplazamiento de plano 20.
En la etapa S407, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S407), el número de píxeles horizontales en los datos de subtítulo decodificados (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de imagen se escriben, de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, en el plano de imagen 8 (área dado el código (L) en la Figura 4) de modo que los datos de imagen se visualizan en una posición predeterminada en la pantalla de visualización (etapa S408).
Por ejemplo, esto significa que cuando el factor de escalado es 1/2, los datos de subtítulo se escriben en el plano de imagen para visualizarse en un tamaño que corresponde al subtítulo cuando los datos de vídeo se llevan hasta la parte superior izquierda de la pantalla de visualización como se muestra en el lado izquierdo de la Figura 22B, y cuando el factor de escalado es 1/4, los datos de subtítulo se escriben en el plano de imagen para visualizarse en un tamaño que corresponde al subtítulo cuando los datos de vídeo se llevan a la parte superior izquierda de la pantalla de visualización como se muestra en el lado izquierdo de la Figura 22A. También, aunque en la descripción anterior, los datos se escriben en el plano de vídeo de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con los píxeles horizontales y verticales convertidos, el aparato puede configurarse también para determinar la posición de visualización de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
A continuación, se referencian el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20 y el factor de escalado referenciado en la etapa S408, y se realiza el procesamiento de desplazamiento del ojo izquierdo en los datos de subtítulo almacenados en el plano de imagen 8 (específicamente, el área dado (L) en la Figura 4). Esto corresponde a realizar procesamiento de desplazamiento con uso de un valor de compensación que corresponde al resultado de realizar el cálculo del “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado” (cortando los números después del punto decimal) (etapa S409).
A continuación, en la etapa S407, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S407), con uso del decodificador de imagen 7a, los datos de subtítulo del flujo de subtítulo de la vista izquierda decodificado se escriben en el plano de imagen 8 (área dado el código (L) en la Figura 4) (etapa S410).
Por ejemplo cuando el factor de escalado es 1/1, y los datos de vídeo se visualizan en pantalla completa en la pantalla de visualización como se muestra en el lado izquierdo de la Figura 22C, los datos de subtítulo se escriben
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
en el plano de imagen 8 (área dado (L) en la Figura 4) en un tamaño correspondiente.
A continuación, se realiza el procesamiento de desplazamiento del ojo izquierdo en los datos de subtítulo almacenados en el plano de imagen 8 (específicamente el área a la que se proporciona (L) en la Figura 4), con referencia al valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20. Puesto que el factor de escalado es 1, esto significa que el cálculo en la etapa S409, “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado”, con “1” como el valor de factor de escalado, es decir, desplazar una cantidad que corresponde al valor de compensación (etapa S411).
La Figura 44B es un diagrama de flujo que ilustra un ejemplo específico de la etapa S806A mostrado en la Figura
42.
En primer lugar, con uso del decodificador de imagen 7a, el flujo de subtítulo de la vista izquierda se decodifica y se emiten los datos de subtítulo decodificado (etapa S406).
A continuación, se realiza una determinación en cuanto a si el factor de escalado es “1” (etapa S407B).
Esta determinación se realiza referenciando un factor de escalado especificado mediante, por ejemplo, la plataforma de BD-J 22, y determinando de acuerdo con el valor referenciado.
En la presente realización, puede referenciarse el valor de factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20. Sin embargo, la presente invención no está limitada a esto. El motor de escalado 15 puede incluir una unidad de almacenamiento de factor de escalado (no representada en los dibujos) que almacena un factor de escalado especificado mediante la plataforma de BD-J 22. También, la unidad de almacenamiento de factor de escalado 42 en el motor de desplazamiento de plano 20 puede proporcionarse en el aparato de reproducción pero fuera del motor de escalado 15. El motor de escalado 15 y el motor de desplazamiento de plano 20 pueden proporcionarse en el aparato de reproducción, y pueden referenciar el factor de escalado almacenado en la unidad de almacenamiento de factor de escalado 42, es decir, proporcionarse externamente al motor de desplazamiento de plano 20.
En la etapa S407b, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S407b), el número de píxeles horizontales en los datos de vídeo decodificado (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de vídeo se escriben, de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, en el plano de imagen 8 (área dado
(R) en la Figura 4) de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización (etapa S408b).
Por ejemplo, esto significa que cuando el factor de escalado es 1/2, los datos de subtítulo se escriben en el plano de imagen para visualizarse en un mismo tamaño que el subtítulo cuando los datos de vídeo se llevan hasta la parte superior izquierda de la pantalla de visualización como se muestra en el lado derecho de la Figura 22B, y cuando el factor de escalado es 1/4, los datos de subtítulo se escriben en el plano de imagen para visualizarse al mismo tamaño que el subtítulo cuando los datos de vídeo se llevan hasta la parte superior izquierda de la pantalla de visualización como se muestra en el lado derecho de la Figura 22A. También, aunque en la descripción anterior, los datos se escriben en el plano de vídeo de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización de acuerdo con los píxeles horizontales y verticales convertidos, el aparato puede configurarse también para determinar la posición de visualización de acuerdo con una especificación desde la aplicación de BD-J.
Puede aplicarse tecnología conocida para procesamiento de ampliación/reducción al procesamiento anterior.
A continuación, se referencian el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20 y el factor de escalado referenciado en la etapa S408b, y se realiza el procesamiento de desplazamiento del ojo derecho en los datos de subtítulo almacenados en el plano de imagen 8 (específicamente, el área dado (R) en la Figura 4). Esto corresponde a realizar procesamiento de desplazamiento con uso de un valor de compensación que corresponde al resultado de realizar el cálculo del “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado) (etapa S409b).
A continuación, en la etapa S407b, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S407b), con uso del decodificador de imagen 7a, los datos de subtítulo del flujo de subtítulo de la vista izquierda decodificado se escriben en el plano de imagen 8 (dado el código de área (R) en la Figura 4) (etapa S410).
15
25
35
45
55
65
E09827327
18-05-2015
Por ejemplo cuando el factor de escalado es 1/1, y los datos de vídeo se visualizan en pantalla completa en la pantalla de visualización como se muestra en el lado derecho de la Figura 22C, los datos de subtítulo se escriben en el plano de imagen 8 en un tamaño correspondiente.
A continuación, se realiza el procesamiento de desplazamiento en los datos de subtítulo almacenados en el plano de imagen 8 (específicamente el área a la que se proporciona (R) en la Figura 4), con referencia al valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20. Puesto que el factor de escalado es 1, esto significa realizar el cálculo en la etapa S409, “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado”, con “1” como el valor de factor de escalado (etapa S411b).
La Figura 25A es un diagrama de flujo que ilustra un ejemplo específico de la etapa S706A en la Figura 41. En la Figura 25A, en primer lugar, se generan los datos de gráficos interactivos de la vista izquierda (etapa S421C). Puesto que la generación de los datos de gráficos interactivos de la vista izquierda ya se ha descrito en la descripción que pertenece a la etapa S201d, se omite la descripción detallada de la misma en este punto.
Puesto que el modo estéreo está en el estado DESCONECTADO, distinto de los datos de imagen de gráficos JPEG de la vista izquierda que corresponden a las partes de la GUI, en una estructura en la que los mismos datos de imagen de gráficos JPEG que corresponden a las partes de la GUI se comparten como los datos de imagen de gráficos JPEG de la vista izquierda/de la vista derecha, estos datos de imagen de gráficos JPEG compartidos se leen en la etapa S421.
A continuación, se realiza una determinación en cuanto a si el factor de escalado no es “1” (etapa S422). Puesto que un ejemplo específico de la determinación ya se ha descrito en la descripción de la etapa S202, se omite la descripción detallada de la misma en este punto.
A continuación, en la etapa S422, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S422), el número de píxeles horizontales en los datos de vídeo interactivo generados (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y se escriben los datos de vídeo interactivo, de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, en el plano 10 de imagen (área dado el código (L) en la Figura 4) de modo que los datos de imagen se visualizan en una posición predeterminada en la pantalla de visualización (etapa S423C).
Puesto que un ejemplo específico ya se ha descrito en la descripción de la etapa S203D, la descripción detallada del mismo se omite en este punto.
Se referencian el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20 y el factor de escalado referenciado en la etapa S423C, y se realiza el procesamiento de desplazamiento del ojo izquierdo en los datos de subtítulo almacenados en el plano de gráficos interactivos 10 (específicamente, el área dado (L) en la Figura 4). Esto corresponde a realizar el procesamiento de desplazamiento con uso de un valor de compensación que corresponde al resultado de realizar el cálculo del “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado” (cortando los números después del punto decimal) (etapa S424C).
A continuación, en la etapa S422, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S422), los datos de gráficos interactivos de la vista izquierda generados se escriben en el plano de gráficos interactivos 10 (área dado el código (L) en la Figura 4) (etapa S425C).
El procesamiento de desplazamiento del ojo izquierdo se realiza en los datos de gráficos interactivos almacenados en el plano de gráficos interactivos 10 (específicamente el área a la que se proporciona (L) en la Figura 4), con referencia al valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20. Puesto que el factor de escalado es 1, esto significa realizar el cálculo en la etapa S424C, “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado”, con “1” como el valor de factor de escalado, es decir, desplazar una cantidad que corresponde al valor de compensación (etapa S426C).
Cuando el factor de escalado del plano de gráficos interactivos no se tiene en cuenta (es decir, cuando el factor de escalado del plano de gráficos interactivos se establece siempre como “1”), se ha de realizar la etapa S425c después de la etapa S421d, la etapa S426c se ha de realizar después de la etapa S425c, y las etapas S422c, S423c y S424c pueden borrarse.
Por ejemplo, cuando las imágenes de gráficos interactivos son imágenes de gráficos que corresponden a las partes de la GUI, en el procesamiento de la etapa S203d, la imágenes de gráficos interactivos pueden escribirse en el
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
plano de gráficos interactivos 10 (área dado el código (L)) de modo que las imágenes de gráficos interactivos que corresponden a las partes de la GUI se visualizan en la porción de la pantalla de visualización distinta de la porción donde la imagen compuesta del vídeo/subtítulos reducidos cuando se realiza visualización a pantalla completa.
Específicamente, en la Figura 24B, en un estado del factor de escalado que es 1/1 y visualizándose la imagen compuesta de subtítulo y vídeo como una imagen observada desde el ojo izquierdo (el lado izquierdo de la Figura 24B), por ejemplo cuando se recibe una entrada para cambiar a una pantalla de menú, como se muestra en la Figura 24B, el factor de escalado de la imagen compuesta de vídeo y subtítulo se hace 1/2, la imagen compuesta se visualiza en la parte superior izquierda de la pantalla de visualización, la imagen de la GUI que corresponde con la imagen de gráficos y el comentario del director se escriben en el plano de gráficos interactivos (área dado el código (L)), y las imágenes escritas en este plano de gráficos interactivos (área dado el código (L)) están compuestas adicionalmente, y se hace la imagen compuesta para el ojo izquierdo (véase el lado izquierdo de la Figura 24A).
La Figura 25B es un diagrama de flujo que ilustra un ejemplo específico de la etapa S808a mostrado en la Figura 42. En la Figura 23B, puesto que los elementos estructurales que tienen los mismos símbolos de referencia que los ejemplos de operaciones específicas descritas en la etapa S706A son idénticos o correspondientes, la descripción detallada de los mismos se omite en este punto. En otras palabras, las descripciones de las etapas S421c y S422 se omiten en este punto.
A continuación, en la etapa S422, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S222), el número de píxeles horizontales en los datos de gráficos interactivos generados (número de longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de gráficos interactivos se escriben en el plano de gráficos interactivos 10
(área dado (R) en la Figura 4) de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos de modo que los datos de gráficos interactivos se visualizan en una posición predeterminada en la pantalla de visualización (etapa S423d).
A continuación, se referencian el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20 y el factor de escalado referenciado en la etapa S408, y se realiza el procesamiento de desplazamiento del ojo izquierdo en los datos de subtítulo almacenados en el plano de gráficos interactivos 10 (específicamente, el área dado (R) en la Figura 4). Esto corresponde a realizar procesamiento de desplazamiento con uso de un valor de compensación que corresponde al resultado de realizar el cálculo del “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado” (cortando los números después del punto decimal) (etapa S424d).
También, en la etapa S422, cuando se realiza una determinación de que el factor de escalado es “1” (cuando se determina “No” es en la etapa S422), los datos de gráficos interactivos de la vista izquierda generados se escriben en el plano de gráficos interactivos 10 (área dado el código (R) en la Figura 4) (etapa S425d).
A continuación, se referencia el valor de compensación almacenado en la unidad de almacenamiento de valor de compensación 41 del motor de desplazamiento de plano 20, y se realiza el procesamiento de desplazamiento del ojo derecho en los datos de gráficos interactivos almacenados en el plano de gráficos interactivos 10 (específicamente, el área dado (R) en la Figura 4). Puesto que el factor de escalado es 1, esto corresponde a realizar el cálculo en la etapa S424C, “valor en la unidad de almacenamiento de compensación (valor de compensación) × el factor de escalado”, con “1” como el valor de factor de escalado, es decir, desplazar una cantidad que corresponde al valor de compensación (etapa S426d).
Aunque se realiza el cálculo de la distancia de desplazamiento cada vez que se visualiza el diagrama de flujo anterior, cuando se realiza escalado mediante la aplicación, en el momento de la llamada, es razonable actualizar la compensación de plano E, e intercambiar la compensación de plano en la unidad de almacenamiento del valor de compensación para una nueva, puesto que esto posibilita reducir el número de cálculos para la distancia de desplazamiento.
Para posibilitar este tipo de procesamiento, es necesario que la plataforma de BD-J 22 del aparato de reproducción incluya una API de escalado. La API de escalado es, por ejemplo, una interfaz para especificar y solicitar un parámetro desde una aplicación, y como un parámetro, por ejemplo, se especifica el factor de escalado.
Cuando se solicita el factor de escalado como un parámetro desde la aplicación mediante la API de escalado, la plataforma de BD-J 22 actualiza, por ejemplo, el factor de escalado almacenado en la unidad de almacenamiento de factor de escalado.
E09827327
18-05-2015
También, de acuerdo con la implementación anterior, incluso si una instrucción de escalado llega durante el procesamiento de salida, la distancia de desplazamiento entre el ojo derecho y el ojo izquierdo siempre puede sincronizarse fiablemente sin realizar procesamiento basándose en actualizar inmediatamente el factor de escalado.
5 [Realización 2]
A diferencia de la realización 1, en la que los datos de subtítulo y los datos de gráficos interactivos se componen para ser dependientes de la profundidad del flujo de vídeo, la presente realización presenta una variación que reduce la fatiga ocular en los espectadores cuando se escala vídeo subtitulado, produciendo que el flujo de vídeo
10 sea dependiente de la profundidad de los subtítulos y de la GUI.
Para evitar que la relación posicional entre un subtítulo o un gráfico y una imagen de vídeo se vuelva fuera de orden, cuando se ejecuta un desplazamiento de plano de un plano de vídeo, la compensación de plano para el plano de vídeo debe calcularse teniendo en cuenta el tipo de valor de la compensación de plano del plano de gráficos.
15 Para realizar este tipo de estructura, en la presente realización, se lee, por ejemplo, un valor de compensación de un ajuste de plano de imagen almacenado en la unidad de almacenamiento de modo de visualización 29, y el aparato está configurado para poder usar el valor de compensación como el valor de compensación de vídeo. También, con uso de los datos de vídeo almacenados en el plano de vídeo 6, el motor de desplazamiento de plano 20 realiza el
20 procesamiento de desplazamiento del ojo derecho y el procesamiento de desplazamiento del ojo izquierdo.
Adicionalmente, en la Figura 4, es necesario añadir, al motor de desplazamiento de plano 20, un elemento constitutivo que calcula esta compensación de plano para el plano de vídeo. La Figura 46 muestra la estructura interna del motor de desplazamiento de plano 20 con este elemento constitutivo añadido.
25 Aunque en la realización 1, la compensación de plano almacenada en la unidad de almacenamiento de compensación se denomina como la “compensación de plano D”, y la compensación de plano calculada para escalar denomina como la compensación de plano E, el parámetro real usado para el desplazamiento de plano del plano de vídeo en la presente realización se denomina como “compensación de plano V”.
30 La Figura 46 es un diagrama de bloques que muestra la estructura interna del motor de desplazamiento de plano 20 del aparato de reproducción en la realización 2. Es evidente que se ha añadido una unidad 45 de cálculo de compensación de plano de vídeo a la estructura interior del motor de desplazamiento de plano 20 de la realización 1 mostrado en la Figura 24.
35 La unidad 45 de cálculo de compensación de plano de vídeo es un módulo para calcular la compensación de plano V del plano de vídeo durante escalado de un vídeo subtitulado.
El desplazamiento de plano en la realización 1 se considera que es únicamente del plano de gráficos, pero en la
40 presente realización, puesto que el plano de vídeo es también un objetivo del desplazamiento de plano, es necesario un procedimiento de procesamiento para el desplazamiento de plano del plano de vídeo. El diagrama de flujo de la Figura 47 muestra los procedimientos de procesamiento para la compensación de plano del plano de vídeo.
La Figura 47A es un diagrama de flujo que ilustra un ejemplo específico de la etapa S702 mostrado en la Figura 41.
45 Puesto que los elementos estructurales que proporcionan los códigos idénticos en la Figura 47A como los códigos en la Figura 43A son elementos idénticos o correspondientes, se omite la descripción duplicada de los mismos en este punto.
50 En la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), se realiza la etapa S203.
A continuación, con uso de la compensación de plano D para el plano de imagen, se realiza cálculo de la siguiente expresión, por lo tanto, calcular la compensación de plano V para los píxeles del plano de vídeo.
55 (Expresión) Compensación de plano de píxel de plano de vídeo V=Redondear(D-(factor de escalado ×D))
A continuación, se realiza el procesamiento de desplazamiento en el vídeo del ojo izquierdo basándose en la 60 compensación de plano V para el plano de vídeo, calculado de acuerdo con la fórmula anterior (etapa S205e).
La descripción del procesamiento de desplazamiento con referencia a las Figuras 30 y 31 puede aplicarse al procesamiento actual, con el plano de vídeo sustituido para el plano de gráficos interactivos o para el plano de imagen, y la compensación V sustituida por la compensación E.
65
E09827327
18-05-2015
También, en la siguiente etapa S202, cuando el factor de escalado se determina que es “1” (cuando se determina “No” es en la etapa S202), se realiza la etapa S204.
El procesamiento de compensación de vídeo no puede realizarse cuando el factor de escalado es 1, puesto que en 5 la expresión anterior, cuando “1” se sustituye por el factor de escalado, la compensación V se hace 0.
La Figura 47B es un diagrama de flujo que ilustra un ejemplo específico de la etapa S804A de la Figura 42.
Puesto que los elementos estructurales que proporcionan los códigos idénticos en la Figura 47B como los códigos 10 en la Figura 43A y La Figura 47A son elementos idénticos o correspondientes, se omite la descripción duplicada de los mismos en este punto.
En la etapa S202, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202), el número de píxeles horizontales en los datos de vídeo decodificado (número de 15 longitudes de píxeles en la dirección horizontal en la pantalla de visualización), el número de píxeles verticales (número de longitudes de píxeles en la dirección vertical en la pantalla de visualización) se convierten a un número de píxeles horizontales y un número de píxeles verticales que corresponden al factor de escalado (es decir, se realiza el procesamiento de ampliación/reducción), y los datos de vídeo se escriben, de acuerdo con el número de píxeles horizontales convertidos y el número de píxeles verticales convertidos, en el plano de vídeo 6 (el área dado
20 el código (R)) de modo que los datos de vídeo se visualizan en una posición predeterminada en la pantalla de visualización (etapa S203f).
A continuación, se calcula la compensación de plano V para el plano de vídeo realizando el cálculo de la siguiente expresión con uso de la compensación de plano D para el plano de imagen.
25 (Expresión) Compensación de plano V para el plano de vídeo=Redondear(D-factor de escalado×D))
A continuación, se realiza el procesamiento de desplazamiento en el vídeo del ojo izquierdo basándose en la 30 compensación de plano V para el plano de vídeo, calculada de acuerdo con la fórmula anterior (etapa S205f).
A continuación, en la etapa S202, cuando se realiza una determinación de que el factor de escalado es “1” (No en la etapa S202), los datos de vídeo decodificado se escriben en el plano de vídeo 6 (área dado el código (R)) usando el decodificador de vídeo 5a (etapa S204f).
35 La Figura 45 es un diagrama de flujo que ilustra un ejemplo de la etapa S804b mostrado en la Figura 42. Puesto que los elementos estructurales que proporcionan los códigos idénticos en la Figura 45 como los códigos en la Figura 43B son elementos idénticos o correspondientes, se omite la descripción duplicada de los mismos en este punto.
40 En la Figura 45, cuando se realiza una determinación de que el factor de escalado no es “1” (cuando se determina “Sí” es en la etapa S202b), se realiza la etapa S302b.
A continuación, la compensación de plano V para el plano de vídeo se calcula realizando el cálculo de la siguiente expresión con uso de la compensación de plano D para el plano de imagen.
45 (Expresión) Compensación de plano V para el plano de vídeo=Redondear(D-factor de escalado×D))
A continuación, se realiza el procesamiento de desplazamiento en el vídeo del ojo derecho basándose en la 50 compensación de plano V para el plano de vídeo, calculada de acuerdo con la fórmula anterior (etapa S205g).
También, en la siguiente etapa S202b, cuando el factor de escalado se determina que es “1” (cuando se determina “No” es en la etapa S202b), se realiza la etapa S204b.
55 Dada una compensación para el plano de vídeo de esta manera durante el procesamiento del ojo derecho y del procesamiento del ojo izquierdo elimina la necesidad de realizar siempre el procesamiento de desplazamiento del plano de imagen y del plano de gráficos interactivos. Por lo tanto, puesto que se cambia la compensación del vídeo sin cambiar las compensaciones del plano de imagen y del plano de gráficos interactivos de acuerdo con el escalado del vídeo, esta estructura posibilita hacer el flujo de vídeo dependiente de la profundidad de los subtítulos/GUI,
60 posibilitando por lo tanto reducir la fatiga ocular en los espectadores durante el escalado de un vídeo subtitulado.
El procesamiento anterior no significa que no se realiza el procesamiento de desplazamiento en el procesamiento del ojo derecho y en el procesamiento del ojo izquierdo en el plano de imagen y en el plano de gráficos interactivos cuando se proporciona una compensación al plano de vídeo.
65
15
25
35
45
55
65
E09827327
18-05-2015
En el diagrama de flujo anterior, puesto que se calcula una compensación de plano para el plano de vídeo, en la presente realización, en tanto el plano de vídeo como el plano de imagen, se ejecuta desplazamiento de plano. En este punto, lo siguiente describe específicamente, con referencia a la Figura 48, cómo la relación posicional entre los subtítulos e imágenes en movimiento cambia en un caso en el que se realiza el desplazamiento de plano en el plano de gráficos, y en un caso en el que se realiza el desplazamiento de plano en el plano de vídeo y en el plano de gráficos.
Lo siguiente describe una situación en la que se aplica desplazamiento a tanto el plano de vídeo como el plano de gráficos.
La Figura 48A muestra un estado en el que, se pretenden imágenes y gráficos de vídeo escalados, únicamente moviendo las coordenadas de los gráficos en un número predeterminado de longitudes de píxeles. Esto muestra la pantalla de salida cuando se realiza escalado y el procesamiento de la presente realización no se ha realizado. La Figura 48A ilustra que, puesto que la compensación de fotograma se establece a -40, en la vista izquierda, las coordenadas se mueven 40 píxeles en la dirección derecha como se muestra en 9RR, y en la dirección derecha, las coordenadas se mueven 40 píxeles en la dirección izquierda como se muestra en 9LL.
Cuando un subtítulo que tiene una misma distancia de desplazamiento (40 píxeles) como antes de escalar en un vídeo en el que se ha realizado escalado está compuesto con una imagen de vídeo, en comparación con la imagen antes de escalar, la posición del subtítulo está desplazada enormemente, y no se mantiene la estructura del vídeo y del subtítulo. Existe un riesgo de que esto produzca que la diferencia en la sensación estereoscópica sea brusca y los ojos no puedan seguirla.
En vista de esto, el cálculo 43 de compensación de plano realiza el cálculo anterior, y calcula una distancia de desplazamiento del plano de vídeo.
Específicamente, la compensación de plano se establece como -40 píxeles, y el factor de escalado se establece como 1/2. Cuando esto se aplica para calcular la distancia de desplazamiento del plano de vídeo, se calcula la compensación de plano del plano de vídeo de acuerdo con el siguiente cálculo como “-20”.
V=D-(Factor de escalado x D)=40-(1/2 x -40)=-20
Puesto que el parámetro real para el plano de vídeo, la compensación de plano V, se calcula para que sea -20, las coordenadas de los píxeles en el plano de vídeo se mueven 20 píxeles en la dirección derecha en la vista izquierda, y 20 píxeles en la dirección izquierda en la vista derecha. Cuando se ha realizado el escalado en las imágenes en movimiento y en los gráficos, el vídeo en el que se ha realizado el escalado se desplaza 20 píxeles, y además, el vídeo está compuesto con subtítulos que se han desplazado 40 píxeles.
Puesto que una cantidad de cambio relativa entre el plano de vídeo y el plano de gráficos es 20 píxeles en la dirección derecha en la vista izquierda, y 20 píxeles en una dirección izquierda en la vista derecha, en comparación con la Figura 48A, la cantidad de cambio de las coordenadas del plano de vídeo y del plano de gráficos se hacen más pequeñas y se suprimen.
La Figura 48B ilustra que haciendo esto, la relación estructural entre el vídeo y los subtítulos antes del escalado se conserva en 14LL y 14RR que son las imágenes de salida después del escalado. Esto evita que se haga brusca la diferencia en la sensación estereoscópica, reduce fatiga ocular y produce visualización más natural.
De acuerdo con la presente realización como se ha descrito anteriormente, junto con una reducción en el vídeo, puede evitarse una reducción de sensación de profundidad debido a una contracción natural de una paralaje entre el ojo izquierdo y el ojo derecho mediante el desplazamiento de plano.
[Realización 3]
La presente realización es un ejemplo ampliado de la realización 1. Cuando se realiza escalado y existe una alta tasa de ampliación/reducción, existe una diferencia brusca en cambios en profundidad en comparación con antes de escalar. En la realización 1, cuando se realiza escalado, un siguiente fotograma después de una solicitud de escalado refleja un cambio de profundidad de acuerdo con el factor de escalado. Cuando la profundidad de la imagen cambia repentinamente de manera brusca, este cambio conduce a fatiga ocular en el usuario. La presente realización describe una variación que tiene por objeto evitar fatiga ocular en el usuario produciendo que la profundidad cambie gradualmente cuando existe una solicitud de escalado, en lugar de producir que el siguiente fotograma cambie repentinamente la profundidad inmediatamente.
Para cambiar la profundidad gradualmente, es necesario almacenar tanto una compensación de plano inicial como una compensación de plano final como compensaciones de planos en el motor de desplazamiento de plano 20, y en la mitad a través del procesamiento de cambio de profundidad, es necesario recalcular una compensación de plano de nivel de la mitad. La Figura 49 muestra la estructura interna del motor de desplazamiento de plano 20 con estos
15
25
35
45
55
65
E09827327
18-05-2015
cambios añadidos.
La Figura 49 es un diagrama de bloques que muestra una estructura interna del motor de desplazamiento de plano 20 del aparato de reproducción en la realización 3. Esta estructura está basada en la estructura interna del motor de desplazamiento de plano 20 de la realización 1 mostrado en la Figura 4, con la adición adicional de una unidad de almacenamiento de información anterior 41a y una unidad de almacenamiento de información posterior 41b para la unidad de almacenamiento de valor de compensación 41 de plano. También, se ha añadido una unidad de contador de fotogramas 46, y una unidad de almacenamiento de tramo de actualización de fotograma 46as y se ha añadido una unidad de almacenamiento de número actualizado de fotogramas 46b a la unidad de almacenamiento de tramo de actualización de fotograma 46as. Lo siguiente describe los elementos constitutivos recién añadidos en la presente realización.
(Unidad de almacenamiento de información anterior 41a)
La unidad de almacenamiento de información anterior 41a almacena una compensación de plano D especificada desde el ajuste 21 de compensación, como una compensación de plano anterior a escalar.
(Unidad de almacenamiento de información posterior 41b)
La unidad de almacenamiento de información posterior 41b almacena una compensación de plano E posterior a la finalización del escalado, es decir, un valor obtenido multiplicando la compensación de plano D por el factor de escalado. También, cuando se actualiza un valor obtenido multiplicando la compensación de plano D por el factor de escalado en la unidad de almacenamiento de valor de compensación, la compensación actualizada se almacena en la unidad de almacenamiento de información posterior 41b.
La temporización para realizar esta actualización es después de actualizar el valor de la unidad de almacenamiento de factor de escalado 42 cuando se ha emitido una instrucción de escalado (por ejemplo, cuando se muestran el vídeo o los subtítulos en visualización reducida debido a una instrucción de escalado desde una aplicación de BD-J).
(Unidad de cálculo de compensación de plano 43)
La unidad de cálculo de compensación de plano 43 convierte la compensación de plano D que indica la compensación de plano almacenada en la unidad de almacenamiento de información anterior 41a y la compensación de plano E almacenada en la unidad de almacenamiento de información posterior 41b, respectivamente, a coordenadas de píxeles. A continuación se calcula la diferencia entre estos dos conjuntos de coordenadas de píxeles, se calcula una compensación de plano necesaria en el momento de escalado, y el valor en la unidad de almacenamiento de número actualizado de fotogramas 46b se divide por el valor en la unidad de almacenamiento de tramo de actualización de fotograma 46a.
A continuación, el número actualizado de fotogramas en el número actualizado de la unidad de almacenamiento de número actualizado de fotogramas 46b se divide por un tramo de actualización de fotograma en la unidad de almacenamiento de tramo de actualización de fotograma 46a, y el cociente resultante se multiplica por la compensación de plano final calculada.
En la realización 1, la compensación de plano proporcionada desde la unidad de ajuste de compensación 21 se denomina como “compensación de plano D”, y la compensación de plano calculada de acuerdo con el escalado se denomina como “compensación de plano E”. Sin embargo, en la presente realización, en un punto temporal después de que ha transcurrido un número de fotogramas i, una compensación de plano usada para desplazar el plano de imagen se denomina como una compensación de plano P(i).
La siguiente expresión se usa para calcular la compensación de plano P(i) en el fotograma (i).
(Expresión) “Compensación de plano P(i)= (Compensación de plano D antes de finalización de escalado − compensación de plano después de finalización de escalado) ×(número actualizado de fotograma i ÷ tramo de actualización de fotograma)”.
También, cuando la compensación de plano P(i) fuera un valor decimal, la compensación de plano P(i) se compone para que sea un valor entero redondeando un lugar decimal.
(Unidad de desplazamiento 44)
La unidad de desplazamiento 44, cuando realiza el procesamiento para el ojo derecho, desplaza los gráficos a la izquierda cuando los gráficos salen de la parte delantera de la pantalla, y desplaza los gráficos a la derecha cuando los gráficos parecen deslizarse a la parte trasera. Cuando se realiza el procesamiento del ojo izquierdo, la unidad de desplazamiento 44 desplaza los gráficos a la derecha cuando los gráficos salen de la parte delantera de la pantalla,
15
25
35
45
55
65
E09827327
18-05-2015
y desplaza los gráficos a la izquierda cuando los gráficos parecen deslizarse a la parte trasera.
(Unidad de contador de fotogramas 46)
La unidad de contador de fotogramas 46 cumple una función de contar cuántos fotogramas han transcurrido, en unidades de fotograma, después una solicitud de escalado, desde un valor almacenado en la unidad de almacenamiento de información anterior 41a, produciendo el valor más cercano al valor almacenado en la unidad de almacenamiento de información posterior 41b.
Específicamente, la unidad de contador de fotogramas 46 incluye una unidad de almacenamiento de tramo de actualización de fotograma 46a que almacena en la misma un tramo de actualización de fotograma que indica cómo de cerca se ha vuelto un recuento de fotograma al valor almacenado en la unidad de almacenamiento de información posterior 41b desde el valor almacenado en la unidad de almacenamiento de información anterior 41a, usando fotogramas, y una unidad de almacenamiento de número actualizado de fotogramas 46b que muestra cuántas veces se ha realizado el procesamiento de fotogramas después de la solicitud de escalado.
El valor en la unidad de almacenamiento de tramo de actualización de fotograma 46a se establece en el aparato de reproducción mediante el fabricante del aparato de reproducción, y no se actualiza.
Cuando el valor en la unidad de almacenamiento de número actualizado de fotogramas 46b es inferior que el valor en la unidad de almacenamiento de tramo de actualización de fotograma 46a, el valor de la unidad de almacenamiento de número actualizado de fotogramas 46b se incremente en 1.
Esto completa la descripción de la estructura interna del motor de desplazamiento de plano. Lo siguiente describe la estructura interna del motor de desplazamiento de plano que pertenece a la realización 3.
Puesto que el número actualizado de fotogramas continua cambiando de acuerdo con los cambios en los fotogramas de vídeo dirigidos para reproducción, para implementar un aparato de reproducción que realiza el procesamiento de la presente realización, debe añadirse el procesamiento que pertenece al número actualizado de fotogramas a los procedimientos de procesamiento del aparato de reproducción del flujo de 3DAV descrito en la realización 1. Este tipo de procesamiento que pertenece al número actualizado de fotogramas incluye procesar para resetear el número actualizado de fotogramas, y procesar para incrementar el número actualizado de fotogramas. La Figura 50 muestra los procedimientos de procesamiento para una visualización de 3D de un flujo de 3DAV después de añadir estos tipos de procesamiento que pertenecen al número actualizado de fotogramas.
La Figura 50 es un diagrama de flujo que muestra procedimientos de procesamiento para visualización de 3D de un flujo de 3DAV.
En la Figura 50, por favor obsérvese que se han añadido como una diferencia de la Figura 40, las etapas S611 a S614.
Los elementos estructurales que se les ha dado códigos idénticos como en la Figura 40 son idénticos o correspondientes a los elementos estructurales en la Figura 40.
El presente diagrama de flujo es para ejecutar las etapas de S602, S613, S614, S615, S616, S617 y S606.
En las etapas anteriores, el procesamiento para ejecutar secuencialmente el procesamiento del ojo izquierdo (etapa S602) y el procesamiento del ojo derecho (etapa S603) se continúa hasta que finaliza la salida del fotograma (“No” en la etapa S606). En el procesamiento del ojo izquierdo de este bucle, las coordenadas de los píxeles se mueven en el plano de imagen mediante la distancia de desplazamiento P(i) de los píxeles que corresponden al número de fotogramas i. También, en el procesamiento del ojo derecho, las coordenadas de los píxeles se mueven en el plano de imagen mediante la distancia de desplazamiento P(i) de los píxeles que corresponden al número de fotogramas i. En este momento, la distancia de desplazamiento P(i) que corresponde al procesamiento del ojo izquierdo y la distancia de desplazamiento P(i) que corresponde al procesamiento del ojo derecho es la misma, pero la dirección del desplazamiento es diferente.
En primer lugar, el número actualizado de fotogramas i se establece a 0 (etapa S617).
A continuación, se realiza el procesamiento del ojo izquierdo (etapa S602).
En este momento, en el procesamiento del ojo izquierdo, cuando se calcula la compensación de plano de imagen (distancia de desplazamiento), se calcula P(i) con uso de la compensación de plano D desde antes del escalado descrito más adelante, la compensación de plano E desde después de la finalización del escalado y del tramo de actualización.
A continuación, se realiza el procesamiento del ojo derecho (etapa S603).
15
25
35
45
55
65
E09827327
18-05-2015
En este momento, cuando se calcula la compensación de plano de imagen (distancia de desplazamiento) en el procesamiento del ojo derecho, se usa P(i) anteriormente descrita.
La etapa S613 es una determinación en cuanto a si el número de fotograma actualizado (i) es más pequeño que el tramo actualizado de fotograma, y si el número de fotograma actualizado (i) es más pequeño, el número actualizado de fotogramas i se incrementa en la etapa S614. Si el número de fotograma actualizado (i) es igual o mayor (es decir, si se determina “No” en la etapa S613), el procesamiento avanza a la etapa S606.
A continuación, se realiza la etapa S606.
En la etapa S606, se realiza una determinación en cuanto a si existe un siguiente fotograma.
Si no existe un siguiente fotograma, es decir, si se determina “No” en la etapa S606, el procesamiento de visualización de 3D para el flujo de 3DAV finaliza.
Si el siguiente fotograma no existe, es decir, si se determina “Sí” en la etapa S606, se realiza otro cálculo con uso del número actualizado de fotogramas P(i) en el procesamiento de la etapas S602 y S603.
El número actualizado de fotogramas i aumenta en uno cada vez que se realiza la determinación de la etapa S613 hasta que llega al tramo de actualización, y después de llegar al tramo actualizado, el valor se hace constante.
El fotograma actualizado (i) se actualiza continuamente a medida que avanza la reproducción del flujo de vídeo, y por consiguiente, puesto que la compensación de plano E se actualiza también, es necesario ejecutar el desplazamiento de plano en la presente realización cada vez que el número de fotograma actualizado se actualiza. Junto con esta actualización del número actualizado de fotogramas, se recalcula la compensación de plano, y la Figura 51 muestra los procedimientos para ejecutar la plataforma basándose en la compensación de plano recalculada.
La Figura 51 es un diagrama de flujo que muestra procedimientos de procesamiento para realizar desplazamiento de plano en el plano de imagen.
Puesto que existen muchas porciones comunes entre el procesamiento del ojo izquierdo y el procesamiento del ojo derecho en los procedimientos de procesamiento para realizar el desplazamiento de plano en el plano de imagen en la Figura 51, tal procesamiento se describe usando el mismo diagrama de flujo. Obsérvese que cuando se realiza el procesamiento de desplazamiento para el ojo izquierdo, el objetivo del procesamiento de desplazamiento son los datos de subtítulo almacenados en el área dado el código (L) en el plano de imagen, y cuando se realiza el procesamiento de desplazamiento para el ojo derecho, el objetivo del procesamiento de desplazamiento son los datos de subtítulo almacenados en el área dado el código (R) en el plano de imagen.
Se obtiene el plano de imagen, y las imágenes decodificadas se escriben en el plano de imagen (etapa S901).
A continuación, se calcula la compensación de plano P(i) para el fotograma (i) de acuerdo con el siguiente cálculo,
La compensación de plano P(i):
Compensación de plano P(i) = (compensación de plano D desde antes de finalización de escalado − compensación de plano E desde después de finalización de escalado) × número actualizado de fotogramas i ÷ tramo de actualización de fotograma)
Las coordenadas de píxeles en el plano de imagen se desplazan de acuerdo con la compensación de plano P(i) calculadas de esta manera (etapa S904). Obsérvese que en la etapa S904, el desplazamiento se realiza en direcciones opuestas para el procesamiento de desplazamiento del ojo izquierdo y para el procesamiento de desplazamiento del ojo derecho.
Puesto que cada vez que se realiza una vez el bucle mostrado en la Figura 51, el número actualizado de fotogramas i se incrementa y la compensación de plano P(i) se calcula basándose en el número actualizado de fotogramas i en la etapa S809, es evidente que cuanto mayor se hace el número actualizado de fotogramas i, mayor es el cambio en la compensación de plano P(i). Es evidente también que si el número actualizado de fotogramas i alcanza el tramo de actualización de fotograma, el número actualizado de fotogramas i se resetea a “0”.
Como se ha descrito anteriormente, el número actualizado de fotogramas i se actualiza junto con el progreso de reproducción del flujo de vídeo, y es evidente que la compensación de plano P(i) se actualiza también junto con esto. La Figura 52 muestra cómo el número actualizado de fotogramas y la compensación de fotograma P(i) cambian temporalmente. Lo siguiente describe, con referencia al ejemplo específico de la Figura 52, las fases temporales de la compensación de plano P(i).
10
15
20
25
30
35
40
45
50
55
60
E09827327
18-05-2015
La Figura 52 muestra cómo la compensación de fotograma P(i) cambia cuando un número actualizado de fotogramas i se actualiza a “1”, “2” y “3”, respectivamente. En la Figura 52, el eje temporal se dibuja para inclinarse a la derecha, y los fotogramas 0, 1, 2 y 3 se escriben en este eje temporal. Los contenidos del plano de imagen en estos fotogramas 0, 1, 2, 3 se dibujan en este eje temporal.
Las expresiones para cada fotograma que indican qué valor será la compensación de fotograma P(i) cuando el número actualizado de fotogramas i se le haya dado los valores “1”, “2” y “3” para identificar los fotogramas 0, 1, 2 y
3.
En este ejemplo específico, suponiendo que los valores -40 y -20 están almacenados en la unidad de almacenamiento de información anterior y en la unidad de almacenamiento de información posterior. -40 es la compensación de plano D, y -20 es la compensación de plano P(i) obtenidas después de añadir un cálculo de cambio de píxeles a la compensación de plano. En el presente ejemplo, la profundidad cambia gradualmente durante los tres fotogramas, y el valor “3” se almacena en la unidad de almacenamiento de tramo de actualización de fotograma 46a. El valor “1” se almacena en la unidad de almacenamiento de número actualizado de fotogramas 46b. Esto indica que se realiza el procesamiento en un primer fotograma después una instrucción de escalado. Este valor almacenado se incrementa a “2” y “3” como los fotogramas transcurridos. A continuación, puesto que la solicitud de escalado fue para el factor de escalado 1/2, se establece el valor 1/2 en la unidad 41 de almacenamiento de factor de escalado.
En el ejemplo específico, basándose en la información en el motor de desplazamiento de plano y la diferencia entre la unidad de almacenamiento de información anterior y la unidad e almacenamiento de información posterior, es evidente que durante 3 fotogramas, es necesario mover las coordenadas -20 píxeles.
(Fotograma 1)
En el fotograma 1, cuando se aplica la expresión anterior dando “1” como el valor del número actualizado de fotogramas i, el número actualizado de fotogramas i÷ el tramo actualizado de fotograma es “1/3” y se obtiene “-7” para la compensación de fotograma de píxeles P(1) como resultado del cálculo (-40-(1/2×-40) ×1/3). Por consiguiente, en el fotograma 1, en el momento de la vista izquierda, el plano de imagen se desplaza 7 píxeles en la dirección derecha, y en el momento de la vista derecha, el plano de imagen se desplaza 7 píxeles en la dirección izquierda.
(Fotograma 2)
En el fotograma 2, cuando se aplica la expresión anterior dando “2” como el valor del número actualizado de fotogramas i, el número actualizado de fotogramas i÷ del tramo actualizado de fotograma es “2/3”, y se obtiene “-14” para la compensación de fotograma de píxeles P(2) como resultado del cálculo (-40-(1/2×-40) ×2/3). Por consiguiente, en el fotograma 2, en el momento de la vista izquierda, el plano de imagen se desplaza 14 píxeles en la dirección derecha, y en el momento de la vista derecha, el plano de imagen se desplaza 14 píxeles en la dirección izquierda.
(Fotograma 3)
En el fotograma 3, cuando se aplica la expresión anterior dando “3” como el valor del número actualizado de fotogramas i, el número actualizado de fotogramas i÷ del tramo actualizado de fotograma es “3/3”, y se obtiene “-20” para la compensación de fotograma de píxeles P(3) como resultado del cálculo (-40-(1/2×-40) ×3/3). Por consiguiente, en el fotograma 3, en el momento de la vista izquierda, el plano de imagen se desplaza 20 píxeles en la dirección derecha, y en el momento de la vista derecha, el plano de imagen se desplaza 20 píxeles en la dirección izquierda.
En este ejemplo específico, las coordenadas en cada fotograma se mueven la distancia de desplazamiento que corresponde al 1/2 de los -20 píxeles (7 píxeles), y en el tercer fotograma, las coordenadas se desplazan -20 píxeles. Desde el cuarto fotograma hacia delante, el procesamiento continúa con el número de desplazamiento conservado desde el tercer fotograma. Esto continúa hasta que se realiza una determinación en la etapa S606 que un siguiente fotograma no existe.
De acuerdo con la presente realización como se ha descrito anteriormente, cambiar la profundidad de los subtítulos durante el escalado no repentinamente sino gradualmente posibilita reducir la fatiga ocular en el usuario.
15
25
35
45
55
65
E09827327
18-05-2015
[Realización 4]
El motor de desplazamiento de plano 20 se requiere para calcular una distancia de desplazamiento para realizar el desplazamiento de plano de acuerdo con algún tipo de parámetro para vista estereoscópica. Es preferible usar una compensación de plano para vista estereoscópica incorporada en flujos de vídeo de MVC (Códec Multi Vista) para calcular esta distancia de desplazamiento. Obsérvese que la presente invención no está limitada a esto, y es preferible también que el parámetro se proporcione al motor de desplazamiento de plano 20 a través de diversos elementos de información que el proveedor de contenido proporciona al aparato de reproducción a través del BD-ROM.
Lo siguiente describe el procesamiento para ajustar las compensaciones de plano con referencia a la Figura 53.
La Figura 53 muestra una estructura de una porción que pertenece a ajustar las compensaciones de planos.
Las siguientes variaciones (AA) a (FF) existen como métodos para proporcionar la compensación de plano.
(AA) La unidad de control de escritura puede actualizar la compensación de plano en el ajuste de plano en la unidad de almacenamiento de modo de visualización 29 mediante la llamada del método setOffsetValue mediante la aplicación de BD-J.
La compensación anteriormente indicada puede obtenerse mediante la aplicación del BD-J en el método getOffsetValue.
Cuando la aplicación de BD-J llama a la API, y la compensación de plano está embebida en la aplicación de BD-J, la flexibilidad es alta, pero la capacidad para cambiar la compensación en tiempo real de acuerdo con la profundidad del vídeo es difícil. Cuando el motor de desplazamiento de plano 20 referencia la compensación especificada mediante la aplicación de BD-J, las compensaciones de plano especificadas mediante la aplicación de BD-J se almacenan en la unidad de almacenamiento de modo de visualización 29 (por ejemplo, la compensación de plano establecida en el plano de imagen, y la compensación de plano establecida en el plano de gráficos interactivos) se leen mediante la unidad de ajuste de compensación 21 y se establecen en la unidad de almacenamiento de valor de compensación 41 en el motor de desplazamiento de plano 20. El motor de desplazamiento de plano 20 desplaza automáticamente el plano en la dirección horizontal basándose en los valores de compensación de plano en el tiempo de la composición.
Lo siguiente describe la temporización del ajuste.
En cualquier momento después de que se ha iniciado la aplicación, la aplicación iniciada puede llamar a la API que cambia la profundidad de los datos mantenidos en cada uno del plano de imagen 8 y del plano de gráficos interactivos 10. Esto es si el vídeo está detenido o no. En cualquier caso (el vídeo esté reproduciéndose o no en el momento de la llamada de la API), es posible asegurar que la distancia de desplazamiento para la vista derecha está en sincronización con la distancia de desplazamiento para la vista izquierda, controlando la temporización para ajustar el valor de compensación de plano (desde la unidad de almacenamiento de modo de visualización 29) en el motor de desplazamiento de plano 20.
Específicamente, la unidad de control de escritura no actualiza el valor de compensación de plano en el motor de desplazamiento de plano 20 en la temporización que la aplicación de BD-J llama setOffset(). Se comprueba si la unidad de control de escritura ha actualizado o no la compensación de plano en la unidad de almacenamiento de modo de visualización 29 en un momento cuando se ha emitido un valor de fotograma de la vista izquierda y un valor de fotograma de los datos de la vista derecha. De acuerdo con la actualización, la unidad de control de escritura actualiza el valor de compensación del motor de desplazamiento de plano 20. Por lo tanto, es posible asegurar que la distancia de desplazamiento para la vista derecha está en sincronización con la distancia de desplazamiento para la vista izquierda. Cuando la distancia de desplazamiento para la vista derecha no está en sincronización con la distancia de desplazamiento para la vista izquierda, la visualización parece de una manera que no se pretende por el creador del contenido, que da como resultado proporcionar vídeo de salida desagradable para el espectador.
(BB) Cuando se carga el BD-ROM, o cuando se construye el paquete virtual, la unidad de control de escritura actualiza el valor de compensación de plano en el motor de desplazamiento de plano 20 leído desde el fichero meta (ZZZZZ.xml) almacenado en el directorio META especificado mediante el BD-ROM o el paquete virtual.
(CC) Cuando se inicia la lectura y decodificación del flujo de vídeo de MVC, la unidad de control de escritura actualiza, el valor de compensación de plano en el motor de desplazamiento de plano 20, la compensación de plano embebida en un área de encabezamiento de cada uno de los paquetes de PES que componen el flujo de vídeo de MVC. Preferentemente, cuando se ha completado la salida un valor de fotograma de los datos de la vista izquierda y un valor de fotograma de los datos de la vista derecha, la unidad de control de escritura establece, como una compensación de plano, la compensación que corresponde al siguiente fotograma a procesarse a un valor de
15
25
35
45
55
65
E09827327
18-05-2015
compensación de plano en la memoria intermedia 28 de lectura. En caso de que la compensación de plano esté embebida en el flujo de vídeo de MVC, puesto que la compensación puede establecerse para cada fotograma de vídeo, la compensación de plano puede desplazarse dinámicamente pero el coste de la autoría puede hacerse una carga.
(DD) Cuando se inicia la lectura y decodificación del flujo de transporte, la unidad de control de escritura actualiza la compensación de plano embebida en el área de encabezamiento del flujo de transporte al valor de compensación de plano en el motor de desplazamiento de plano 20. Preferentemente, cuando se ha completado la salida de un valor de fotograma de los datos de la vista izquierda y un valor de fotograma de los datos de la vista derecha, la unidad de control de escritura establece, en la memoria intermedia 28 de lectura, la compensación que corresponde al fotograma que está procesándose como un valor de compensación de plano en el motor de desplazamiento de plano 20.
En un caso donde el valor de compensación de plano está embebido en el flujo, el valor de compensación puede desplazarse dinámicamente con el vídeo. Por lo tanto, la propiedad de tiempo real es alta, pero el coste de autoría puede hacerse una carga.
(EE) Cuando se determina la lista de reproducción actual, y se carga la información de lista de reproducción, la compensación de plano de la información de lista de reproducción se establece a un valor de compensación de plano en el motor de desplazamiento de plano 20. Cuando se usa la información de la lista de reproducción para determinar la compensación, la flexibilidad es alta en el momento de la autoría. Sin embargo, en comparación con el caso donde la compensación esté embebida en el flujo, no es posible acortar el intervalo de tiempo desde un punto temporal en el que se establece una compensación en la que se actualiza la compensación. Por lo tanto, la propiedad de tiempo real es un poco pobre.
(FF) Recibir la operación de usuario que cambia el nivel de la profundidad del plano de imagen 8 y los datos mantenidos en el plano de gráficos interactivos 10 mediante la operación del botón unido a un control remoto o un dispositivo (es decir, la profundidad se expresa mediante los tres niveles tal como “distante”, “normal” y “cercano”, o la profundidad se expresa mediante los valores numéricos tales como “cuántos cm” o “cuántos mm”), el módulo de detección de UO 26 actualiza el valor de compensación de plano en el motor de desplazamiento de plano 20 con uso de la operación de usuario. Esta actualización aumenta o disminuye la compensación de plano dependiendo del número de veces que se presione la tecla de la flecha derecha del control remoto 300. Por lo tanto, los gráficos pueden visualizarse más cerca del espectador o distantes del espectador cambiando el número de veces que se presiona la flecha derecha o la flecha izquierda. Esto mejora la propiedad operacional.
La distancia de desplazamiento por la que el plano de imagen 8 y el plano de gráficos interactivos 10 se desplazan se obtiene realizando el cálculo basándose en la compensación de plano en el motor de desplazamiento de plano 20 después de que se realiza el procesamiento anteriormente indicado. La razón por la que el procesamiento de cálculo es necesario es que mientras que la distancia de desplazamiento de los trozos de datos de píxeles en cada uno del plano de imagen 8 y del plano de gráficos interactivos 10 se define mediante el número de longitudes de píxeles, la compensación de plano se define a menudo mediante unidades diferentes de unidades de píxeles.
Si la compensación de plano está embebida en el flujo de vídeo de MVC, la unidad de cálculo de compensación de plano 43 calcula la distancia de desplazamiento por la que las coordenadas de los trozos de datos de píxeles mantenidos en el plano de gráficos basándose en la distancia de desplazamiento mostrada mediante la compensación de plano que la unidad de ajuste de compensación 21a ha almacenado en el motor de desplazamiento de plano 20, cuando se ha completado la salida de un valor de fotograma de los datos de la vista izquierda y un valor de fotograma de los datos de la vista derecha.
Esto concluye la descripción de los diversos casos donde la unidad de ajuste de compensación 21 establece la compensación de plano. Lo siguiente describe un valor proporcionado mediante la operación de usuario o la aplicación.
El valor proporcionado desde la operación de usuario o la aplicación puede no ser la distancia de desplazamiento real en píxeles, sino que es posiblemente un valor ajustado desde el valor establecido en el motor de desplazamiento de plano 20 de estado actual. En tal caso, necesita ejecutarse el cálculo del valor de compensación de plano. Por ejemplo, cuando se presiona la tecla de la flecha derecha tres veces o se introduce un valor “3” de una tecla de valor numérico, el motor de desplazamiento de plano 20 añade este valor a la compensación de plano establecida en el aparato, y calcula la compensación de plano basándose en el valor añadido. Cuando, por ejemplo, el valor es un valor “+”, la distancia de desplazamiento se disminuye, y los gráficos parecen ser más distantes del espectador. Cuando, por ejemplo, el valor es un valor “-”, la distancia de desplazamiento se aumenta, y los gráficos parecen ser más cercanos al espectador.
Lo siguiente describe un cambio en profundidad.
Como se ha descrito en lo anterior, cuando los gráficos tales como subtítulos y las GUI se desplazan a lo largo del
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
eje horizontal, se cambia la profundidad cambiando una distancia de desplazamiento para los subtítulos, y la distancia de desplazamiento para la GUI a lo largo del eje horizontal. Por ejemplo, cuanto más cerca se hacen los subtítulos de la vista izquierda y los subtítulos de la vista derecha en una dirección predeterminada, más cerca se visualizan los gráficos en la pantalla. Cuanto más distantes se hacen los subtítulos de la vista izquierda y los subtítulos de la vista derecha uno del otro en una dirección opuesta, más distantes se visualizan los gráficos desde la pantalla. Sin embargo, la relación entre la compensación de plano y el nivel de salida se ve afectada enormemente por el número de pulgadas de la TV y la característica del cristal líquido de las gafas de 3D. Estableciendo coeficientes indicados en el terminal con antelación, un valor obtenido multiplicando la compensación de plano por este coeficiente puede usarse para el desplazamiento para realizar un efecto óptico de este tipo. Multiplicar la compensación de plano por el coeficiente de tal manera hace posible ajustar el nivel de salida del vídeo estereoscópico basándose en las características de la TV, del aparato de reproducción 200 y del cristal líquido de las gafas de 3D.
[Realización 5]
La presente realización describe qué tipo de hardware se usa en el aparato de reproducción descrito en las realizaciones anteriores.
La Figura 54 muestra la estructura interna del aparato de reproducción 200. Una unidad frontal 101, un sistema de LSl 102, un dispositivo de memmoria 103, una unidad de fondo 104, una memoria no volátil 105, un microordenador de anfitrión 106 y una INTERFAZ de red 107 componen principalmente un aparato de reproducción 200 en la Figura
54.
La unidad frontal 101 es una fuente de entrada de datos. En una figura anteriormente descrita, la unidad frontal 101 incluye, por ejemplo, una unidad de BD 1a y un almacenamiento local 1c.
El sistema de LSI 102 está compuesto de elementos lógicos, y es una parte central del aparato de reproducción 200. Este sistema de LSI incluye en el mismo al menos un demultiplexor 4, decodificadores de vídeo 5a y 5b, decodificadores de imagen 7a y 7b, un decodificador de audio 9, un conjunto de registros 12 de estado/ajuste de reproducción (PSR: Estado de Reproductor/Registro de Ajuste), un motor de control de reproducción 14, una unidad de composición 16, un motor de desplazamiento de plano 19 y una unidad de ajuste de compensación 20.
El dispositivo de memmoria 103 está compuesto de conjuntos de dispositivos de memoria tales como una SDRAM. El dispositivo de memmoria 103 incluye, por ejemplo, una memoria intermedia de lectura 2a, una memoria intermedia de lectura 2b, una memoria de escenario dinámico 23, una memoria de escenario fijo 13, planos de gráficos 6 y 8, el plano de vídeo 10 y el plano de fondo 11.
La unidad de fondo 104 es una interfaz de conexión que conecta partes internas del aparato de reproducción 200 con otros dispositivos, e incluye una unidad de transmisión y recepción de HDMI 17.
La memoria no volátil 105 es un medio de grabación legible y escribible, y es un medio que puede mantener contenidos grabados sin necesitar fuente de alimentación de energía. La memoria no volátil 105 se usa para respaldo de información en un modo de visualización almacenado en una unidad e almacenamiento de modo de visualización 24d (descrito a continuación). Una memoria flash, una FeRAM o similares pueden usarse como esta memoria no volátil 105.
El microordenador de anfitrión 106 es un sistema de microordenador, es decir, compuesto de una ROM, una RAM y una CPU. Los programas para controlar el aparato de reproducción se graban en la ROM. Los programas en la ROM se escriben en la CPU, y mediante cooperación entre el programa y los recursos de hardware, se realizan las funciones del módulo de HDMV 24, la plataforma de BD-J 22, el módulo de gestión de modo 24, el módulo de detección de UO 26 y el motor de control de reproducción 14.
Lo siguiente describe el sistema de LSI. El sistema de LSI es un circuito integrado obtenido implementando un chip desnudo en un sustrato de alta densidad y se encapsulan. El sistema de LSI se obtiene también implementando una pluralidad de chips desnudos en un sustrato de alta densidad y encapsulándolos, de modo que la pluralidad de chips desunidos tienen una apariencia exterior de un LSI (un sistema de LSI de este tipo se denomina un módulo multichip).
El sistema LSI tiene un tipo de QFP (Encapsulado Plano Cuadrado) y un tipo de PGA (Matriz de Rejilla de Patillas). En el sistema de LSI de tipo QFP, las patillas están unidas a los cuatro lados del encapsulado. En el sistema de LSI de tipo PGA, un conjunto de patillas están unidas a todo el fondo.
Estas patillas funcionan como una interfaz con otros circuitos. El sistema de LSI, que está conectado con otros circuitos a través de tales patillas como una interfaz, desempeña un papel como el núcleo del aparato 101 de reproducción.
15
25
35
45
55
65
E09827327
18-05-2015
Un sistema de LSI de este tipo puede embeberse en diversos tipos de dispositivos que pueden reproducir imágenes, tales como una televisión, máquina de juegos, ordenador personal, teléfono móvil de un segmento, así como en el aparato 102 de reproducción. El sistema de LSI por lo tanto amplía enormemente el uso de la presente invención.
Es deseable que el sistema de LSI cumpla con la arquitectura Uniphier.
Un sistema de LSI conforme a la arquitectura Uniphier incluye los siguientes bloques de circuitos.
-Procesador paralelo de datos (DPP)
El DPP es un procesador de tipo SIMD donde una pluralidad de procesadores elementales realizan una misma operación. El DPP consigue una decodificación en paralelo de una pluralidad de píxeles que constituyen una imagen produciendo que las unidades de operación, respectivamente embebidas en los procesadores elementales, operen simultáneamente mediante una instrucción.
-Procesador paralelo de instrucciones (IPP)
El IPP incluye: un controlador de memoria local, es decir, compuesto de RAM de instrucciones, caché de instrucciones, RAM de datos y caché de datos; unidad de procesamiento, es decir, compuesto de unidad de captura de instrucción, decodificador, unidad de ejecución y fichero de registro; y unidad de multi procesamiento virtual que produce que la unidad de procesamiento ejecute una ejecución en paralelo de una pluralidad de aplicaciones.
-Bloque de MPU
El bloque de MPU está compuesto de: circuitos periféricos tales como el núcleo de ARM, interfaz de bus externo (Unidad de Control de Bus: BCU). Controlador de DMA, temporizador, controlador de interruptor de vector; e interfaces periféricas tales como UART, GPIO (Entrada Salida de Fin General), e interfaz serie de sincronización.
-Bloque I/O de flujo
El bloque I/O de flujo realiza entrada/salida de datos con el dispositivo de la unidad, el dispositivo de la unidad de disco duro y el dispositivo de tarjeta de memoria SD que están conectados en los buses externos mediante la interfaz USB y la interfaz de paquetes ATA.
-Bloque de I/O de AV
El bloque de I/O de AV, que está compuesto de entrada/salida de audio, entrada/salida de vídeo y controlador de OSD, realiza entrada/salida de datos con la televisión y el amplificador de AV.
-Bloque de control de memoria
El bloque de control de memoria realiza lectura y escritura desde/a la SD-RAM conectada con la misma mediante los buses externos. El bloque de control de memoria está compuesto de la unidad de conexión de bus interna para controlar la conexión interna entre bloques, la unidad de control de acceso para transferir datos con la SD-RAM conectada fuera del sistema de LSI y la unidad de planificación de acceso para ajustar solicitudes desde los bloques para acceder a la SD-RAM.
Lo siguiente describe un procedimiento de producción detallado. En primer lugar, se dibuja un diagrama de circuito de una parte para que sea el sistema de LSI, basándose en los dibujos que muestran estructuras de las realizaciones. Y a continuación se realizan los elementos constitutivos de la estructura objetivo usando elementos de circuitos, IC, LSI.
A medida que se realizan los elementos constitutivos, se definen los buses que conectan entre los elementos de circuito, IC o LSI, circuitos periféricos, interfaces con entidades externas y similares. Además, se definen las líneas de conexión, líneas de alimentación, líneas de tierra, señales de reloj y similares. Para estas definiciones, las temporizaciones de operación de los elementos constitutivos se ajustan teniendo en cuenta las especificaciones de LSI, y se reservan los anchos de banda necesarios para los elementos constitutivos. Con otros ajustes necesarios, se completa el diagrama de circuito.
Después de que se completa el diagrama de circuito, se realiza el diseño de implementación. El diseño de implementación es un trabajo para crear una distribución de placa determinando cómo disponer las partes (elementos de circuito, IC, LSI) del circuito y de las líneas de conexión en la placa.
Después de que se realiza el diseño de implementación y se crea la distribución de la placa, los resultados del diseño de implementación se convierten en datos de CAM, y los datos de CAM se emiten al equipo tal como una máquina herramienta de NC (Control Numérico). La máquina herramienta de NC realiza la implementación de SoC o
E09827327
18-05-2015
la implementación de SiP. La implementación de SoC (Sistema en Chip) es una tecnología para imprimir una pluralidad de circuitos en un chip. La implementación de SiP (Sistema en Encapsulado) es una tecnología para encapsular una pluralidad de circuitos mediante resina o similares. A través de estos procesos, un sistema de LSI de la presente invención puede producirse basándose en la estructura interna del aparato de reproducción 200 descrito
5 en cada realización anterior.
Debería indicarse en este punto que el circuito integrado generado como se ha descrito anteriormente puede denominarse IC, LSI, ultra LSI, súper LSI o similares, dependiendo del nivel de integración.
10 Es posible también conseguir el sistema de LSI usando el FPGA (Campo de Matriz de Puertas Programables). En este caso, un conjunto de elementos lógicos se han de disponer como en rejilla, y se conectan cables verticales y horizontales basándose en las composiciones de entrada/salida descritas en la LUT (Tabla de Correspondencia), de modo que pueda realizarse la estructura de hardware descrita en cada realización. La LUT se almacena en la SRAM. Puesto que los contenidos de la SRAM se borran cuando la potencia está desconectada, cuando se usa el
15 FPGA, es necesario definir la información de configuración para escribir, en la SRAM, la LUT para realizar la estructura de hardware descrita en cada realización.
En la realización, la invención se realiza mediante el soporte intermedio y hardware que corresponden al sistema de LSI, hardware distinto del sistema de LSI, una porción de interfaz que corresponde al soporte intermedio, una
20 porción de interfaz para intermediar entre el soporte intermedio y el sistema de LSI, una porción de interfaz para intermediar entre el soporte intermedio y el hardware necesario distinto del sistema de LSI, y una porción de interfaz de usuario, y cuando se integran estos elementos para formar el aparato de reproducción, se proporcionan funciones particulares operando los respectivos elementos conjuntamente.
25 Definiendo apropiadamente la interfaz que corresponde al soporte intermedio y la interfaz para el soporte intermedio y el sistema de LSI posibilita el desarrollo independiente, en paralelo, de la porción de interfaz de usuario, la porción de soporte intermedio y la porción de sistema de LSI del aparato de reproducción respectivamente, y posibilita desarrollo más eficaz. Obsérvese que existen diversas maneras de dividir las respectivas porciones de interfaz.
30 (Observaciones)
Esto concluye la descripción de los mejores modos para llevar a cabo la invención conocidos por el solicitante en el momento de la solicitud. Sin embargo, pueden añadirse mejoras y variaciones adicionales a los asuntos técnicos indicados a continuación. Si se lleva a cabo la invención como se indica en las realizaciones o se usan estas
35 mejoras y variaciones es arbitrario, y se deja a la discreción del que lleve a cabo la invención.
(Embeber una bandera de función de visualización)
Existe una bandera de función de visualización para identificar si un flujo dirigido para reproducción es de 2D o de
40 3D en el BDROM. En la presente realización, la bandera de función de visualización está embebida en información de lista de reproducción (PL). Sin embargo, la presente invención no está limitada a esto, y la bandera de función de visualización puede embeberse en una forma diferente en el BDROM, con la condición de que la bandera sea información que puede identificar el flujo y si el flujo es de 2D o de 3D.
45 (Forma física del plano de vídeo 6)
Aunque se ha descrito un ejemplo en el que el plano del ojo izquierdo y el plano del ojo derecho incluidos en el plano de vídeo 6 mostrado en la Figura 4 son memorias físicamente separadas, la presente invención no está limitada a esto, y por ejemplo, pueden proporcionarse áreas para el plano del ojo izquierdo y para el plano del ojo derecho en
50 una memoria, y pueden escribirse datos de vídeo que corresponden a estas áreas en los respectivos planos.
(Forma física del plano de imagen 8)
Aunque se ha descrito un ejemplo en el que el plano del ojo izquierdo y el plano del ojo derecho incluidos en el plano
55 8 de vídeo mostrado en la Figura 4 son memorias físicamente separadas, la presente invención no está limitada a esto, y por ejemplo, puede proporcionarse áreas para el plano del ojo izquierdo y para el plano del ojo derecho en una memoria, y pueden escribirse datos de vídeo que corresponden a estas áreas en los respectivos planos.
(Forma física del plano de gráficos interactivos 10)
60 Aunque en la Figura 4, el plano de gráficos interactivos 10 se muestra como un área del ojo izquierdo (dado el código (L)) y un área de ojo derecho (dado el código (L)), la presente invención no está limitada a esto. Por ejemplo, pueden usarse áreas físicamente separadas para tanto el área del ojo izquierdo (dado el código (L)) como del área del ojo derecho (dado el código (R)) del plano de gráficos interactivos 10.
65
15
25
35
45
55
65
E09827327
18-05-2015
(Método para ajustar la compensación)
La descripción de las Figuras 7 a 8 toman como un objeto un ejemplo de, cuando el modo estéreo está DESCONECTADO, y la compensación del área de fondo y de vídeo no está ajustada (es decir, cuando la compensación es 0, más específicamente, cuando se visualiza la posición en la pantalla de visualización). La razón para simplificar la descripción anterior. Por consiguiente, la presente invención no está limitada a la descripción anterior, y por ejemplo, el aparato puede configurarse para ajustar las compensaciones de modo que, por ejemplo, el vídeo se sitúe más atrás que las imágenes de gráficos (subtítulos), y los datos de fondo se sitúen más atrás que el vídeo.
(Resolución para soportarse mediante el plano de fondo 11, plano de imagen 8, plano de gráficos interactivos)
Cuando el aparato de reproducción está en el modo de visualización de 3D, el plano de fondo 11, el plano de imagen 8 y el plano de gráficos interactivos, además de la resolución del modo de 2D, puede soportar también una resolución de 1920×2160 o 1280×1440 píxeles. En este caso, la relación de aspecto para 1920×2160 o 1280×1440 píxeles hace la relación de aspecto de 16/18. La mitad superior puede usarse como un área para el ojo izquierdo, y la mitad inferior puede usarse como un área para el ojo derecho.
(Objetivo de ajuste de compensación de plano)
La compensación de plano puede tener, por ejemplo, dos distancias de desplazamiento diferentes para el plano de imagen y el plano de gráficos interactivos, y puede realizarse una distinción entre las dos distancias de desplazamiento. Si el aparato de reproducción incluye una función de configuración, se establece “0” por defecto. En este caso, los gráficos tales como subtítulos y la GUI se visualizan en una posición en la pantalla de visualización, y no se consigue el efecto de salida de la pantalla.
(Exclusión desde la composición mediante la unidad de composición)
Cuando se realiza la composición en el orden de datos de imagen fija de 2D, datos de vídeo de 2D, datos de gráficos de 2D (datos de subtítulo) y gráficos interactivos de 2D, si los datos de vídeo se visualizan en pantalla completa, los datos de imagen fija de 2D pueden excluirse del procesamiento de composición.
(Almacenamiento de bandera en variación de unidad de almacenamiento de modo de visualización 29)
Una bandera que indica si realizar visualización de 2D o visualización de 3D en la unidad de almacenamiento de modo de visualización 29 puede almacenarse mediante el conjunto de registros 12 de estado de reproducción, o puede almacenarse mediante tanto la unidad de almacenamiento de modo de visualización 29 como el conjunto de registros 12 de estado de reproducción.
(Crear una tabla de cálculo)
Aunque existen muchos algoritmos posibles para convertir una compensación de plano a coordenadas de píxeles, es preferible usar un algoritmo dependiente del tamaño o resolución del dispositivo de visualización para visualizar el vídeo, o un algoritmo dependiente del tamaño del vídeo a visualizar.
También, un aparato de reproducción que es bajo en recursos de dispositivo puede no únicamente calcular de acuerdo con un algoritmo de conversión, sino también pueden preparar una tabla de correspondencia de escalado, y convertir las compensaciones de plano a las coordenadas de píxeles de acuerdo con la tabla. Específicamente, la tasa de ampliación del factor de escalado puede limitarse a varios patrones, y las coordenadas de píxeles que corresponden a los factores de escalado pueden almacenarse con antelación en una tabla. Cuando se especifica un factor de escalado, las coordenadas de píxeles correspondientes pueden transmitirse de vuelta a la unidad 28-D de desplazamiento.
Como valores específicos para la compensación de plano, pueden establecerse tres niveles de valores, tales como 50 píxeles, 30 píxeles y 25 píxeles. Para los factores de escalado, pueden establecerse tres niveles de valores, en concreto 2 veces, 1/2 veces y 1/4 veces. Limitando la compensación de plano y el factor de escalado a estos valores, el algoritmo de cálculo se hace más sencillo, y creando la tabla para el cálculo anterior posibilita simplificar la implementación de la unidad de cálculo de compensación de plano 43.
(Duplexación)
Aunque la estructura mostrada en los dibujos incluye uno de cada uno de los decodificadores de vídeo 5a y 5b, el plano de vídeo, y la unidad de adición del plano de imagen, el aparato puede configurase para tener dos de cada unidad, de modo que puede realizarse el procesamiento en paralelo para tanto la imagen del ojo izquierdo como la imagen del ojo derecho.
15
25
35
45
55
65
E09827327
18-05-2015
(Re-utilización)
Cuando se almacena un plano de imagen en el que se ha realizado decodificación y escalado, este plano de imagen puede reutilizarse. Obsérvese que cuando se reutiliza el plano de imagen, es necesario volver a un plano de imagen desplazado a la posición original del mismo.
(Píxeles en 2D)
Adicionalmente, en un caso de que un flujo de vídeo de 2D y la profundidad de los píxeles de pantalla en unidades de fotograma del flujo de vídeo de 2D se traten como entrada, puede extraerse una profundidad de un píxel más frontal, y la profundidad extraída puede usarse como la compensación de plano.
(Sincronización)
Pueden proporcionarse banderas separadas para sincronizar el ojo izquierdo y el ojo derecho, y el aparato puede configurarse para únicamente realizar el procesamiento de escalado del ojo derecho en caso de que se haya realizado el procesamiento de escalado para el ojo izquierdo.
(Variaciones de factor)
Como factores de escalado, puede realizarse una especificación específica de coordenadas de píxeles después de que se ha completado el escalado. Por ejemplo, puede realizarse una especificación directa tal como una longitud horizontal de 1000 y una longitud vertical de 250.
Cuando el factor de escalado es un número específico de longitudes de píxeles, es preferible calcular una relación entre antes de escalar y después escalar en un eje horizontal, y obtener una nueva compensación de imagen multiplicando la relación con la compensación de imagen.
(Temporización de visualización)
Aunque en la estructura de la presente realización, es posible cambiar la profundidad gradualmente después de que se ha recibido la instrucción de escalado, el aparato puede configurarse en su lugar para invalidad la visualización de subtítulos, y después de que ha transcurrido una cierta cantidad de fotogramas, visualizar el vídeo en coordenadas de píxeles de desplazamiento calculadas basándose en un valor en la unidad de almacenamiento de información posterior. En este método, en lugar de calcular una distancia de desplazamiento de acuerdo con los fotogramas, se realiza el desplazamiento y la visualización de acuerdo con una distancia de desplazamiento de píxeles que puede calcularse mediante la unidad de almacenamiento de información posterior, a una temporización cuando un valor en el número actualizado de la unidad de almacenamiento de fotogramas llega a un valor en la unidad de almacenamiento de tramo de actualización de fotograma. Esta estructura posibilita conseguir un efecto de absorber cualquier diferencia en la sensación estereoscópica, y reducir por lo tanto la fatiga ocular en el usuario, puesto que cuando se cambia la profundidad del flujo de vídeo después del escalado, los subtítulos se visualizan en un estado al que el usuario está acostumbrado.
(Modo de grabar flujos)
Los flujos dispuestos en el BD-ROM pueden grabarse de modo que el flujo del ojo derecho y el flujo del ojo izquierdo se graben por separado, o pueden embeberse en un único fichero de flujo.
(Método estereoscópico)
En contraste a, por ejemplo, presentar una película de 2 dimensiones normal como 24 fotogramas por segundo, el método de imagen de paralaje, es decir, una premisa de la realización 1 requiere visualizar 48 fotogramas por segundo como un total de las imágenes del ojo izquierdo y las imágenes del ojo derecho, para visualizar las imágenes del ojo izquierdo y las imágenes del ojo derecho alternando en un eje temporal. Por consiguiente, este método es óptimo para un aparato de visualización que es comparativamente rápido para volver a escribir cada pantalla. La vista estereoscópica que usa este tipo de paralaje ya está adoptada generalmente en equipo de reproducción en parques de atracciones, etc. Puesto que se ha establecido la tecnología para este tipo de vista estereoscópica, se espera que se ponga en práctica en uso en el hogar pronto. Los métodos para conseguir vista estereoscópica usando imágenes de paralaje no están limitados a esto, y adicionalmente se han propuesto otras tecnologías tales como usar un método de separación de 2 colores. Aunque se han usado ejemplos en la presente realización de un método de separación sucesiva o un método de separación de polarización, con la condición de que se usen imágenes de paralaje, la invención no está limitada a estos dos métodos.
El aparato 300 de visualización no está limitado tampoco a usar lentes lenticulares, pero puede en su lugar usar un dispositivo que tenga una función similar, por ejemplo un elemento de cristal líquido. Como alternativa, puede realizarse vista estereoscópica proporcionando un filtro de polarización vertical para píxeles para la vista izquierda, y
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
un filtro de polarización horizontal para píxeles para el ojo derecho, y visualizar mediante el espectador la pantalla del aparato de visualización con el uso de gafas de polarización que incluyen un filtro de polarización vertical para píxeles para la vista izquierda, y un filtro de polarización horizontal para píxeles para el ojo derecho.
(Datos de imagen)
Es preferible para los datos de imagen descritos en las realizaciones que sean un flujo de gráficos de presentación.
Un flujo de gráficos de presentación (flujo de PG) es un flujo de gráficos que indica gráficos para sincronizarse con precisión con subtítulos, etc., e imágenes de una película, y existe una pluralidad de flujos de idioma tales como inglés, japonés y francés.
El flujo de PG está compuesto de una serie de segmentos funcionales, en concreto, PCS (Segmento de Control de Presentación), PDS (Segmento de Definición de Paleta), WDS (Segmento de Definición de Ventana) y ODS (Segmento de Definición de Objeto). El ODS (Segmento de Definición de Objeto) es un segmento que define un objeto de gráficos que se ha comprimido mediante compresión de longitud de pasada con uso de un código de píxeles y la longitud de pasada. El PDS (Segmento de Definición de Paleta) es un segmento funcional que define una relación de correspondencia entre los códigos de píxeles respectivos y la luminancia (Y), una diferencia de color rojo (Cr), una diferencia de color azul (Cb) y un valor de transparencia (valor α). El PCS (Segmento de Control de Presentación) es un segmento funcional que define detalles de conjuntos de visualización en un flujo de gráficos y define composición de pantalla con uso de un objeto de gráficos. La composición de pantalla puede establecerse a Corte de Entrada/Salida, Fundido de Entrada/Salida, Cambio de Color, Desplazamiento, o Barrido de Entrada/Salida y actuar junto con la composición de pantalla de PCS posibilita conseguir un efecto de visualizar un siguiente subtítulo mientras que el subtítulo actual desparece gradualmente.
Cuando se reproduce un flujo de gráficos, el decodificador de gráficos realiza la sincronización precisa anteriormente descrita mediante un flujo funcional para realizar simultáneamente el procesamiento para decodificar un ODS que pertenece a un cierto ajuste de visualización y escribir un objeto de gráficos en una memoria intermedia de objeto, junto con el procesamiento para escribir un objeto de gráficos, obtenido decodificando el ODS que pertenece al ajuste de visualización anterior, en la memoria de plano desde la memoria intermedia de objeto. Puesto que se realiza una sincronización precisa con las imágenes de vídeo realizando la operación de decodificación usando el flujo funcional, el uso del flujo de gráficos de presentación no está limitado a reproducción de texto tal como subtítulos. Un flujo de gráficos de presentación puede usarse para cualquier tipo de reproducción de gráficos para la que se requiere sincronización precisa, tal como visualizar un personaje de mascota y producir que el personaje de mascota se mueva en sincronización con las imágenes de vídeo.
Aunque no multiplexados con un fichero de flujo de transporte, en flujos que llevan a cabo subtítulos, aparte de flujos de PG, existen flujos de subtítulo de texto (textST). Los flujos de textST son flujos que llevan a cabo el contenido de los subtítulos con uso de los códigos de carácter. Una combinación de estos flujos de PG y flujos de texto de ST se denomina un “flujo PGTextST” en normas de BD-ROM. Puesto que los flujos de subtítulo de texto (textST) no están multiplexados con flujos de AV, antes de reproducir los flujos de subtítulo de texto y la fuente usada para desarrollar el texto de los subtítulos, es necesario precargar la memoria. También, en los flujos de subtítulo de texto, para cada código de idioma, se establece una bandera de capacidad que indica si el idioma puede visualizarse correctamente en el aparato de reproducción. Mientras tanto, no es necesario hacer referencia a las banderas de capacidad para reproducir subtítulos usando el flujo de gráficos de presentación. La razón es que los subtítulos en el flujo de gráficos de presentación necesitan únicamente descomprimir los subtítulos comprimidos con longitud de pasada.
El objetivo de reproducción del flujo de gráficos de presentación pueden ser gráficos de subtítulo elegidos de acuerdo con un ajuste de idioma en el lado del aparato. Puesto que esta estructura posibilita conseguir un efecto de visualización para usar texto tal como se visualiza en las imágenes de película en el DVD actual mediante gráficos de subtítulo visualizados de acuerdo con el ajuste de idioma en el lado del aparato, el valor práctico es enorme.
El objetivo de reproducir mediante el flujo de gráficos de presentación pueden ser gráficos de subtítulo seleccionados de acuerdo con un ajuste de visualización en el lado del aparato. Es decir, se graban los gráficos para diversos modos de reproducción tales como visión ancha, panorámica y exploración y formato buzón en un BD-ROM. El aparato selecciona qué modo de visualización usar de acuerdo con los ajustes de la televisión a la que está conectado el aparato, y visualiza los gráficos de subtítulo en el modo de visualización seleccionado. En este caso, la presentación mejora cuando se implementa un efecto de visualización basándose en el flujo de gráficos de presentación en contraste con los gráficos de subtítulo visualizados de esta manera. Puesto que esta estructura posibilita llevar a cabo un efecto de visualización para usar texto tal como se visualiza en las imágenes de película mediante subtítulos visualizados de acuerdo con el ajuste de idioma en el lado del aparato, el valor práctico es enorme. También, el flujo de gráficos de presentación puede usarse para karaoke, y en este caso, el flujo de gráficos de presentación puede realizar el efecto de visualización para cambiar el color de los subtítulos de acuerdo con el progreso de una canción.
10
15
20
25
30
35
40
45
50
55
60
65
E09827327
18-05-2015
(Implementación como un programa)
El programa de aplicación descrito en las realizaciones puede hacerse como se describe a continuación. En primer lugar, el desarrollador de software, con uso de un lenguaje de programación, escribe un programa fuente para realizar el contenido de los diagramas de flujo y los elementos estructurales funcionales. Cuando se escribe el programa fuente que realiza el contenido de los diagramas de flujo y los elementos estructurales funcionales, el desarrollador de software usa las estructuras de clase, variables, variables de series y llamadas de función externas para escribir el programa de acuerdo con la sintaxis del lenguaje de programación.
Los programas fuente escritos se proporcionan como ficheros a un compilador. El compilador traduce los programas fuente y crea un programa objeto.
La traducción mediante el compilador está compuesta de los procesos de análisis de sintaxis, optimización, asignación de recursos y generación de código. El análisis de sintaxis implica realizar análisis léxico y análisis semántico de los programas fuente, y convertir los programas fuente a un programa intermediario. La optimización implica realizar operaciones para dividir el programa intermedio en bloques básicos, analizar el flujo de control del programa intermediario, y analizar el flujo de datos del programa intermedio. En la asignación de recursos, para mejorar la capacidad de adecuación con un conjunto de comandos de un procesador dirigido, se asignan variables en el programa intermediario a un registro o a una memoria en un procesador dirigido. La generación de código se realiza convirtiendo los comandos intermediarios en el programa intermediario en código de programa, y obteniendo un programa objeto.
El programa objeto generado en este punto está compuesto de uno o más códigos de programa para ejecutar, en un ordenador, las etapas de los diagramas de flujo y los diversos procesos llevados a cabo mediante los elementos estructurales funcionales en las realizaciones. En este punto, el código de programa puede ser cualquiera de diversos tipos tales como código nativo de un procesador o código de bytes de JAVA. Existen diversos formatos para la realización de las etapas mediante el código de programa. Si es posible usar funciones externas para realizar las etapas, los textos de llamada que llaman a tales funciones se hacen código de programa. También, hay casos en los que un código de programa para realizar una etapa se atribuye a programas objeto separados. En un procesador RISC en el que los tipos de comandos están limitados, las etapas de los diagramas de flujo pueden realizarse componiendo comandos de operación de cálculo, comandos de cálculo lógico, comandos de instrucción de ramificación, etc.
Cuando se han creado los programas objeto, el programador inicia un enlazador. El enlazador asigna los programas objeto y programas de biblioteca a espacios de memoria, compone los programas objeto y programas de biblioteca en uno y genera un módulo de carga. El módulo de carga generado, por lo tanto, está anticipado a leerse mediante un ordenador, y produce al ordenador ejecutar los procedimientos de procesamiento y componentes estructurales funcionales mostrados en los diagramas de flujo. Los programas pueden proporcionarse a los usuarios grabándose en un medio de grabación que es legible mediante un ordenador.
(Variaciones de medio de grabación)
El medio de grabación de las realizaciones incluye todos los tipos de medio de paquete tales como discos ópticos, tarjetas de memoria de semiconductores, etc. El medio de grabación de las realizaciones descritas, como un ejemplo, un disco óptico (por ejemplo, un disco óptico de sólo lectura preexistente tal como un BD-ROM o un DVD-ROM). Sin embargo, la presente invención no está limitada a esto. Por ejemplo, es posible implementar la presente invención escribiendo contenidos de 3D, incluyendo datos que son necesarios para implementar la presente invención y haberse difundido o distribuido a través de una red, con uso de un dispositivo terminal que cumple una función para escribir los contenidos de 3D (por ejemplo, la función puede incluirse en el aparato de reproducción, o puede incluirse en un aparato distinto del aparato de reproducción), en un disco óptico escribible (por ejemplo, un disco óptico preexistente tal como un BD-RE o un DVD-RAM).
(Estructura de decodificadores de vídeo)
Aunque en las realizaciones, se describió que la función del decodificador de vídeo se cumple mediante el decodificador de vídeo 5a del ojo izquierdo y el decodificador de vídeo 5b del ojo izquierdo, estas pueden incorporarse como una.
(Implementación como aparato de grabación de tarjeta de memoria de semiconductores y aparato de reproducción)
Lo siguiente describe implementar la estructura de datos descrita en las realizaciones como un aparato de grabación que graba datos en una memoria de semiconductores, y un aparato de reproducción que reproduce los datos.
En primer lugar, lo siguiente describe la tecnología sobre esta premisa, que es un mecanismo para proteger unos derechos de autor de datos grabados en un BD-ROM.
Desde un punto de vista, por ejemplo, de mejorar la confidencialidad de los datos y protección de derechos de autor, hay casos en los que se codifican porciones de los datos grabados en el BD-ROM según sea necesario.
Por ejemplo, los datos codificados de los datos grabados en el BD-ROM pueden ser, por ejemplo, datos que corresponden a un flujo de vídeo, datos que corresponden a un flujo de audio o datos que corresponden a un flujo que incluye tanto vídeo como audio.
Lo siguiente describe el descifrado de datos codificados que están entre los datos grabados en el BD-ROM.
En la tarjeta de memoria de semiconductores/aparato de reproducción, los datos que corresponden a una clave necesaria para descifrar datos codificados en el BD-ROM (por ejemplo, una clave de dispositivo) se graban en el aparato de reproducción con antelación.
Mientras tanto, los datos que corresponden a la clave necesaria para descifrar los datos codificados (por ejemplo, un MKB (bloque de clave de medios) que corresponden a la clave del dispositivo) y los datos en los que la propia clave, para descifrar los datos codificados, está codificada (por ejemplo una clave de título codificado que corresponde a la clave de dispositivo y al MKB), se graban en el BDROM. En este punto, la clave de dispositivo, el MKB y la clave de título codificado se corresponden entre sí, y adicionalmente corresponden a un identificador (por ejemplo, una ID de volumen) escrito en un área que no puede copiarse normalmente en el BD-ROM (un área denominada BCA). Si esta composición no es correcta, el código no puede descifrarse. Únicamente si la composición es correcta, la clave necesaria para descifrar el código (por ejemplo, una clave de título decodificado obtenida decodificando la clave de título codificado basándose en la clave de dispositivo, el MKB y la clave de volumen, pueden obtenerse, y con uso de la clave necesaria para la codificación, los datos codificados pueden descifrarse.
Cuando el BD-ROM insertado se reproduce en el aparato de reproducción, los datos codificados no pueden reproducirse a menos que el BD-ROM incluya una clave de dispositivo que está emparejada con una clave de título
o MKB (o corresponde a una clave de título o MKB). La razón es que la clave necesaria para descifrar los datos codificados (la clave de título) está codificada ella misma cuando se graba en el BD-ROM (como una clave de título codificado), y si la composición del MKB y la clave de dispositivo no es correcta, la clave necesaria para descifrar el código no puede obtenerse.
Por otro lado, el aparato de reproducción está configurado de modo que, si la composición de la clave de título codificado, el MKB, la clave de dispositivo y la ID de volumen son correctos, se decodifica el flujo de vídeo, por ejemplo con uso de la clave necesaria para descifrar el código (la clave de título decodificado obtenida decodificando la clave de título codificado basándose en la clave del dispositivo, el MKB y la ID de volumen), el flujo de audio se decodifica mediante el decodificador de audio.
Esto completa la descripción del mecanismo para proteger los derechos de autor de datos grabados en el BD-ROM. Este mecanismo no está necesariamente limitado al BD-ROM, y por ejemplo, puede aplicarse a, por ejemplo, una memoria de semiconductores legible/escribible (por ejemplo, una tarjeta de memoria de semiconductores que tiene una propiedad no volátil tal como una tarjeta SD).
Lo siguiente describe el procedimiento de reproducción de un aparato de reproducción de tarjeta de memoria de semiconductores. En contraste a un disco óptico que está configurado de modo que los datos se leen desde, por ejemplo, una unidad de disco óptico, cuando se usa una tarjeta de memoria de semiconductores, los datos pueden leerse mediante una interfaz para leer los datos en la tarjeta de memoria de semiconductores.
Más específicamente, cuando la tarjeta de memoria de semiconductores se inserta en una ranura (no representada) en el aparato de reproducción, el aparato de reproducción y la tarjeta de memoria de semiconductores están conectados eléctricamente mediante la interfaz de tarjeta de memoria de semiconductores. Los datos grabados en la tarjeta de memoria de semiconductores pueden leerse mediante la interfaz de tarjeta de memoria de semiconductores.
[Aplicabilidad industrial]
La presente invención puede aplicarse a un aparato de reproducción de vídeo estereoscópico que realiza escalado cuando se superponen subtítulos en un flujo de vídeo de vista estereoscópica, en equipo de reproducción que reproduce un flujo de vídeo estereoscópico, en un dispositivo que visualiza subtítulos y gráficos superpuestos en un flujo de vídeo estereoscópico.
[Lista de signos de referencia]
100 BD-ROM 200 aparato de reproducción 300 control remoto 400 televisión
500 gafas de obturador de cristal líquido
1a unidad de BD
1b interfaz de red
1c almacenamiento local
2a, 2b memoria intermedia de lectura
3 sistema de ficheros virtual
4 demultiplexor a,b decodificador de vídeo
6 plano de vídeo
7a,b decodificador de imagen
7c,d memoria de imagen
8 plano de imagen
9 decodificador de audio plano de gráficos interactivos
11 plano de fondo
12 conjunto de registros
13 memoria de escenario fijo
14 motor de control de reproducción motor de escalado
16 unidad de composición
17 unidad de transmisión y recepción de HDMI
18 unidad de almacenamiento de bandera de función de visualización
19 unidad de almacenamiento de procesamiento de izquierda y derecha motor de desplazamiento de plano
21 memoria de distancia de desplazamiento
22 plataforma de BD-J
22a motor de representación
23 memoria de escenario dinámico
24 módulo de gestión de modo módulo de HDMV 26 módulo de detección de UO
27a memoria de imagen fija
27b decodificador de imagen fija
28 unidad de ajuste de visualización inicial de ajuste de modo de visualización
29 unidad de almacenamiento de modo de visualización

Claims (16)

  1. REIVINDICACIONES
    1.
    Un aparato de reproducción que realiza reproducción estereoscópica, que comprende:
    un decodificador de vídeo (5a, 5b) que puede utilizarse para obtener fotogramas de vídeo decodificando un flujo de vídeo; y una memoria de plano de imagen (8) que almacena en la misma datos de subtítulo que tienen una resolución de un número predeterminado de píxeles horizontales y verticales; el aparato de reproducción caracterizado por comprender adicionalmente una unidad de almacenamiento de compensación (41) que almacena en la misma una compensación que indica un número de longitudes de píxeles para desplazar las coordenadas de píxeles en datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) en una dirección izquierda y una dirección derecha para realizar reproducción estereoscópica; un motor de desplazamiento (20) que puede utilizarse para desplazar las respectivas coordenadas de los datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) horizontalmente mediante la distancia de desplazamiento basándose en la compensación; y una unidad de composición (16) que puede utilizarse para componer los fotogramas de vídeo obtenidos con los datos de subtítulo en los que las coordenadas de los píxeles se han desplazado en las mismas, en donde la compensación está pre-incluida en el flujo de vídeo; la unidad de almacenamiento de compensación (41) almacena la compensación pre-incluida en el flujo de vídeo; y cuando se cambia un factor de escalado de los fotogramas de vídeo a componer a un valor distinto de 1, la distancia de desplazamiento del motor de desplazamiento (20) está basada en un valor obtenido multiplicando la compensación por el factor de escalado.
  2. 2.
    El aparato de reproducción de la reivindicación 1 en el que cuando el factor de escalado del fotograma de vídeo es menor de 1, la distancia de desplazamiento de los datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) se convierten en un número de longitudes de píxeles multiplicando la compensación por el factor de escalado y redondeando cualquier valor numérico detrás de una coma decimal del mismo.
  3. 3.
    El aparato de reproducción de las reivindicaciones 1 o 2 que comprende adicionalmente un plano de gráficos interactivos (10) para almacenar datos de gráficos escritos mediante una aplicación.
  4. 4.
    El aparato de reproducción de la reivindicación 3 en el que los gráficos escritos en el plano interactivo (10) están constituidos desde una interfaz de usuario gráfica que recibe una operación de usuario.
  5. 5.
    El aparato de reproducción de cualquiera de las reivindicaciones 1 a 4 en el que el motor de desplazamiento (20) incluye una tabla de mapeo que muestra una pluralidad de distancias de desplazamiento, correspondiendo cada distancia de desplazamiento a un factor de escalado, y la multiplicación para obtener la distancia de desplazamiento se realiza con uso de una distancia de desplazamiento, leída desde la tabla de mapeo, que corresponde al factor de escalado especificado por la aplicación.
  6. 6.
    El aparato de reproducción de la reivindicación 1 en el que el motor de desplazamiento (20) incluye:
    una unidad de almacenamiento de información anterior (41a) que almacena en la misma, como información anterior, una compensación desde antes del escalado, una unidad de almacenamiento de información posterior (41b) que almacena, como información posterior, una distancia de desplazamiento de píxeles después de que se ha completado el escalado, es decir, un número de longitudes de píxeles obtenido multiplicando la compensación por el factor de escalado, y un contador de fotogramas (46) que indica un número de fotogramas i que indica cuántos fotogramas han pasado desde la generación de una instrucción de escalado y actualiza el número de fotogramas i a medida que progresa el procesamiento de fotogramas, y siendo una distancia de desplazamiento D(N) una distancia de desplazamiento cuando han pasado N fotogramas después de la generación de la instrucción de escalado, siendo una distancia de desplazamiento D(i) una distancia de desplazamiento cuando han pasado i fotogramas (i ≤ N) después de la generación de la instrucción de escalado, la distancia de desplazamiento en los datos de gráficos se calcula con uso de la distancia de desplazamiento D(i), la distancia de desplazamiento D(N) obtenida de acuerdo con la información anterior, la información posterior, y la multiplicación, y el número de fotogramas i actualizados por el contador de fotogramas (46).
  7. 7.
    El aparato de reproducción de la reivindicación 6 en el que el contador de fotogramas (46) incluye una unidad de almacenamiento de tramo de actualización de fotograma (46a) que almacena en la misma un tramo de actualización de fotograma que indica un número de fotogramas a través de
    64
    los que realizar el desplazamiento, y cuanto más cerca se aproxima el número actualizado de fotogramas i al tramo de actualización de fotograma, mayor se hace la distancia de desplazamiento D(i).
  8. 8.
    El aparato de reproducción de la reivindicación 6 en el que el contador de fotogramas (46) incluye una unidad de almacenamiento de tramo de actualización de fotograma (46a) que almacena en la misma un tramo de actualización de fotograma que indica un número de fotogramas a través de los que realizar el desplazamiento, y el aparato de reproducción únicamente emite los fotogramas de vídeo hasta que el número de fotogramas i llegue al tramo de actualización de fotograma, y cuando el número actualizado de fotogramas i llega al tramo de actualización de fotograma se realiza el desplazamiento de las coordenadas en los píxeles mediante la distancia de desplazamiento D(N), y los píxeles en la memoria de plano (10) están compuestos por los píxeles en los fotogramas de vídeo.
  9. 9.
    El aparato de reproducción de la reivindicación 1 en el que la distancia de desplazamiento obtenida mediante la multiplicación es una distancia de desplazamiento D(N) cuando han pasado N fotogramas desde una generación de una instrucción de escalado, y una distancia de desplazamiento D(i), es decir, una distancia de desplazamiento cuando han pasado i fotogramas después de la generación de la instrucción de escalado (i ≤ N), se calcula de acuerdo con la siguiente expresión:
    distancia de desplazamiento D(i) = (Compensación-(Factor×Compensación)) × (i/N)
    Compensación: número de longitudes de píxeles indicado por la compensación Factor: factor de escalado.
  10. 10.
    El aparato de reproducción de la reivindicación 1 en donde el aparato de reproducción incluye adicionalmente un plano de vídeo (6), es decir, una memoria de plano que almacena en la misma los fotogramas de vídeo obtenidos mediante decodificación, el motor de desplazamiento (20), cuando se realiza el escalado en los fotogramas de vídeo en el plano de vídeo (6), desplaza los datos de subtítulo almacenados la memoria de plano de imagen (8) y las coordenadas de los píxeles incluidos en los fotogramas de vídeo, y cuando el motor de desplazamiento (20) desplaza los píxeles de los fotogramas de vídeo en el plano de vídeo (6), un valor relativo de la distancia de desplazamiento de los píxeles en el plano de vídeo (6) y de la distancia de desplazamiento de los píxeles en la memoria de plano de imagen (8) es un valor basado en un número de longitudes de píxeles obtenido multiplicando la compensación por el factor de escalado cambiado.
  11. 11.
    El aparato de reproducción de la reivindicación 10 en el que una compensación de plano V de coordenadas de datos de imagen en el plano de vídeo (6) se calcula de acuerdo con la siguiente expresión:
    compensación de plano de coordenadas V=D -(Factor × D)
    D: Compensación en el plano de gráficos Factor: factor de escalado.
  12. 12.
    El aparato de reproducción de las reivindicaciones 1 o 2, en el que los datos escritos en el plano de gráficos interactivos (10) o en la memoria de plano de imagen (8) son datos de gráficos obtenidos decodificando un flujo de gráficos o son datos de subtítulo obtenidos decodificando un flujo de subtítulo.
  13. 13.
    El aparato de reproducción de cualquiera de las reivindicaciones 1 a 12, en el que el factor de escalado de los fotogramas de vídeo es especificado por una aplicación.
  14. 14.
    El aparato de reproducción de cualquiera de las reivindicaciones 1 a 12, en el que el factor de escalado es especificado por una operación de usuario.
  15. 15.
    Un método de reproducción para realizar reproducción estereoscópica en un ordenador, que comprende las etapas de:
    obtener fotogramas de vídeo decodificando un flujo de vídeo; y escribir en el ordenador datos de subtítulo que tienen una resolución de un número predeterminado de píxeles horizontales y verticales en una memoria de plano de imagen (8); el método caracterizado por comprender adicionalmente las etapas de obtener una compensación que indica un número de longitudes de píxeles para desplazar las coordenadas de píxeles en datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) en una dirección izquierda y una dirección derecha para realizar reproducción estereoscópica;
    65
    desplazar las coordenadas respectivas de los datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) horizontalmente mediante la distancia de desplazamiento basándose en la compensación; y componer los fotogramas de vídeo obtenidos con los datos de subtítulo en los que han estado las coordenadas de los píxeles en los mismos, en donde la compensación está pre-incluida en el flujo de vídeo; y cuando se cambia un factor de escalado de los fotogramas de vídeo a componer a un valor distinto de 1, la distancia de desplazamiento de la etapa de desplazamiento está basada en un valor obtenido multiplicando la compensación por el factor de escalado.
  16. 16. Un programa para realizar reproducción estereoscópica en un ordenador, que comprende las etapas de:
    obtener fotogramas de vídeo decodificando un flujo de vídeo; y escribir en el ordenador datos de subtítulo que tienen una resolución de un número predeterminado de píxeles horizontales y verticales en una memoria de imagen (8); el programa caracterizado por comprender adicionalmente las etapas de obtener una compensación que indica un número de longitudes de píxeles para desplazar las coordenadas de píxeles en datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) en una dirección izquierda y una dirección derecha para realizar reproducción estereoscópica; desplazar las coordenadas respectivas de los datos de píxeles que componen los datos de subtítulo almacenados en la memoria de plano de imagen (8) horizontalmente mediante la distancia de desplazamiento basándose en la compensación; y componer los fotogramas de vídeo obtenidos con los datos de subtítulo en los que se han desplazado las coordenadas de los píxeles en los mismos; en donde la compensación está pre-incluida en el flujo de vídeo; y cuando se cambia un factor de escalado de los fotogramas de vídeo a componer a un valor distinto de 1, la distancia de desplazamiento de la etapa de desplazamiento está basada en un valor obtenido multiplicando la compensación por el factor de escalado.
    66
ES09827327.9T 2008-11-18 2009-11-16 Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica Active ES2537073T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008294500 2008-11-18
JP2008294500 2008-11-18
PCT/JP2009/006115 WO2010058546A1 (ja) 2008-11-18 2009-11-16 立体視再生を行う再生装置、再生方法、プログラム

Publications (1)

Publication Number Publication Date
ES2537073T3 true ES2537073T3 (es) 2015-06-02

Family

ID=42197989

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09827327.9T Active ES2537073T3 (es) 2008-11-18 2009-11-16 Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica

Country Status (9)

Country Link
US (2) US8301013B2 (es)
EP (1) EP2348746B1 (es)
JP (2) JP4772163B2 (es)
CN (1) CN102210156B (es)
BR (1) BRPI0922046A2 (es)
ES (1) ES2537073T3 (es)
RU (1) RU2512135C2 (es)
TW (2) TW201032577A (es)
WO (1) WO2010058546A1 (es)

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8335425B2 (en) * 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US8301013B2 (en) * 2008-11-18 2012-10-30 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
JP4998649B2 (ja) * 2009-04-03 2012-08-15 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4915458B2 (ja) 2009-04-03 2012-04-11 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP4985807B2 (ja) * 2009-04-15 2012-07-25 ソニー株式会社 再生装置および再生方法
DE102010009291A1 (de) 2010-02-25 2011-08-25 Expert Treuhand GmbH, 20459 Verfahren und Vorrichtung für ein anatomie-adaptiertes pseudoholographisches Display
JP5390016B2 (ja) * 2010-03-24 2014-01-15 パナソニック株式会社 映像処理装置
JP4787369B1 (ja) * 2010-03-30 2011-10-05 富士フイルム株式会社 画像処理装置および方法並びにプログラム
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
US8982151B2 (en) * 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
JP5505637B2 (ja) * 2010-06-24 2014-05-28 ソニー株式会社 立体表示装置および立体表示装置の表示方法
US20110316972A1 (en) * 2010-06-29 2011-12-29 Broadcom Corporation Displaying graphics with three dimensional video
JP2012023648A (ja) * 2010-07-16 2012-02-02 Sony Corp 再生装置、再生方法、およびプログラム
US10194132B2 (en) 2010-08-03 2019-01-29 Sony Corporation Establishing z-axis location of graphics plane in 3D video display
US8605136B2 (en) * 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
JP5450330B2 (ja) * 2010-09-16 2014-03-26 株式会社ジャパンディスプレイ 画像処理装置および方法、ならびに立体画像表示装置
KR20120034574A (ko) * 2010-10-01 2012-04-12 삼성전자주식회사 디스플레이 장치 및 신호 처리 장치와, 그 방법들
KR101817171B1 (ko) * 2010-10-14 2018-01-11 톰슨 라이센싱 3d 비디오 시스템을 위한 원격 제어 디바이스
US8537201B2 (en) * 2010-10-18 2013-09-17 Silicon Image, Inc. Combining video data streams of differing dimensionality for concurrent display
BR112013010572A2 (pt) 2010-11-15 2016-08-09 Nat Inst Japan Science & Technology Agency aparelho e método de geração de imagem de ilusão, mídia que exibe uma imagem de ilusão, dados de imagem para exibir uma imagem de ilusão, método de fabricação de mídia de impressão, e, programa
US10057559B2 (en) * 2010-12-03 2018-08-21 Koninklijke Philips N.V. Transferring of 3D image data
WO2012077238A1 (ja) * 2010-12-10 2012-06-14 富士通株式会社 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
CN102812497B (zh) 2011-03-03 2016-06-08 松下知识产权经营株式会社 能够提供随后体验影像的影像提供装置、影像提供方法
JP2012186652A (ja) * 2011-03-04 2012-09-27 Toshiba Corp 電子機器、画像処理方法及び画像処理プログラム
TWI492610B (zh) * 2011-03-10 2015-07-11 Realtek Semiconductor Corp 影像控制裝置
TWI482484B (zh) * 2011-06-17 2015-04-21 Wistron Corp 立體顯示系統及其方法
KR102394141B1 (ko) 2011-07-01 2022-05-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 향상된 3d 오디오 오서링과 렌더링을 위한 시스템 및 툴들
EP2544152A3 (en) * 2011-07-07 2013-02-20 HTC Corporation Management of multiple interface display layers
CN102905143B (zh) * 2011-07-28 2015-04-15 瑞昱半导体股份有限公司 2d转3d图像转换装置及其方法
CN103210423A (zh) * 2011-11-15 2013-07-17 联发科技(新加坡)私人有限公司 立体图像处理装置及其相关方法
TWI489418B (zh) * 2011-12-30 2015-06-21 Nat Univ Chung Cheng Parallax Estimation Depth Generation
JP5319796B2 (ja) * 2012-01-12 2013-10-16 株式会社東芝 情報処理装置および表示制御方法
JP6307213B2 (ja) * 2012-05-14 2018-04-04 サターン ライセンシング エルエルシーSaturn Licensing LLC 画像処理装置、画像処理方法およびプログラム
TWI555400B (zh) * 2012-05-17 2016-10-21 晨星半導體股份有限公司 應用於顯示裝置的字幕控制方法與元件
US9781409B2 (en) * 2012-08-17 2017-10-03 Nec Corporation Portable terminal device and program
CN104781847B (zh) * 2012-09-28 2018-02-06 独立行政法人科学技术振兴机构 视错觉分析装置及方法、参考视错觉的图像生成装置及方法
KR101946455B1 (ko) * 2013-03-14 2019-02-11 삼성전자주식회사 시스템 온-칩 및 이의 동작 방법
KR20140120000A (ko) * 2013-04-01 2014-10-13 한국전자통신연구원 3차원공간의 분석을 통한 입체영상 자막 생성 장치 및 방법
WO2014186346A1 (en) * 2013-05-13 2014-11-20 Mango Languages Method and system for motion picture assisted foreign language learning
US20140347350A1 (en) * 2013-05-23 2014-11-27 Htc Corporation Image Processing Method and Image Processing System for Generating 3D Images
EP3032828A4 (en) * 2013-08-06 2016-12-14 Sony Interactive Entertainment Inc DEVICE FOR GENERATING THREE-DIMENSIONAL PICTURES, METHOD FOR GENERATING THREE-DIMENSIONAL PICTURES, PROGRAM AND INFORMATION MEMORY MEDIUM
JP6129759B2 (ja) * 2014-02-03 2017-05-17 満男 江口 Simd型超並列演算処理装置向け超解像処理方法、装置、プログラム及び記憶媒体
CN104038827B (zh) 2014-06-06 2018-02-02 小米科技有限责任公司 多媒体播放方法及装置
NZ739860A (en) * 2015-08-18 2019-10-25 Magic Leap Inc Virtual and augmented reality systems and methods
JP6754429B2 (ja) 2016-06-27 2020-09-09 ローム株式会社 タイミングコントローラ、それを用いた電子機器、車載用ディスプレイ装置、医療用ディスプレイ装置
US10958890B2 (en) * 2017-03-31 2021-03-23 Samsung Electronics Co., Ltd. Method and apparatus for rendering timed text and graphics in virtual reality video
KR102448340B1 (ko) * 2017-12-20 2022-09-28 삼성전자주식회사 디스플레이 구동 회로에 저장된 좌표 정보에 기반하여, 콘텐트의 표시 위치를 이동하기 위한 전자 장치 및 방법
US10735649B2 (en) 2018-02-22 2020-08-04 Magic Leap, Inc. Virtual and augmented reality systems and methods using display system control information embedded in image data
CN108900904B (zh) * 2018-07-27 2021-10-15 北京市商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
CN111193919B (zh) * 2018-11-15 2023-01-13 中兴通讯股份有限公司 一种3d显示方法、装置、设备及计算机可读介质
CN109561263A (zh) * 2018-11-23 2019-04-02 重庆爱奇艺智能科技有限公司 在vr设备的3d视频中实现3d字幕效果
KR102582160B1 (ko) * 2018-12-26 2023-09-22 엘지디스플레이 주식회사 유기 발광 다이오드 디스플레이 장치
JP7105210B2 (ja) 2019-03-26 2022-07-22 富士フイルム株式会社 画像処理方法、プログラム、及び画像処理システム
CN117009016A (zh) * 2023-07-12 2023-11-07 江西科骏实业有限公司 显示模式切换方法、系统、终端设备以及存储介质

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2100324C (en) * 1992-08-06 2004-09-28 Christoph Eisenbarth Method and apparatus for determining mis-registration
JPH08249493A (ja) * 1995-03-09 1996-09-27 Sony Corp 立体映像装置
US5784097A (en) * 1995-03-29 1998-07-21 Sanyo Electric Co., Ltd. Three-dimensional image display device
US6175575B1 (en) * 1997-09-26 2001-01-16 Lucent Technologies Inc. Internet service via ISDN
JPH11113028A (ja) * 1997-09-30 1999-04-23 Toshiba Corp 3次元映像表示装置
JP3639108B2 (ja) * 1998-03-31 2005-04-20 株式会社ソニー・コンピュータエンタテインメント 描画装置および描画方法、並びに提供媒体
JP4006105B2 (ja) 1998-08-25 2007-11-14 キヤノン株式会社 画像処理装置およびその方法
US20030043918A1 (en) 1999-12-20 2003-03-06 Jiang Hong H. Method and apparatus for performing video image decoding
WO2002037841A1 (fr) * 2000-11-02 2002-05-10 Fujiyama Co., Ltd. Systeme de repartition du contenu d'une image numerique, procede de reproduction et support d'enregistrement de son programme de reproduction
JP3826039B2 (ja) * 2002-01-22 2006-09-27 キヤノン株式会社 信号処理装置
RU2225593C2 (ru) * 2002-04-10 2004-03-10 Федеральное государственное унитарное предприятие "Научно-производственное предприятие "Рубин" Фотограмметрическое рабочее место
US7804995B2 (en) * 2002-07-02 2010-09-28 Reald Inc. Stereoscopic format converter
CN1703915A (zh) * 2002-09-27 2005-11-30 夏普株式会社 3-d图像显示单元,3-d图像记录装置和3-d图像记录方法
US20060203085A1 (en) * 2002-11-28 2006-09-14 Seijiro Tomita There dimensional image signal producing circuit and three-dimensional image display apparatus
EP1578142B1 (en) * 2002-12-16 2014-10-08 Sanyo Electric Co., Ltd. Stereoscopic video creating device and stereoscopic video distributing method
JP2004248212A (ja) 2003-02-17 2004-09-02 Kazunari Era 立体視画像表示装置
JP2004274125A (ja) * 2003-03-05 2004-09-30 Sony Corp 画像処理装置および方法
AU2003221143A1 (en) * 2003-03-20 2004-10-11 Seijiro Tomita Stereoscopic video photographing/displaying system
US20040213542A1 (en) * 2003-04-22 2004-10-28 Hiroshi Hamasaka Apparatus and method to reproduce multimedia content for a multitude of resolution displays
EP1628490A1 (en) 2003-05-27 2006-02-22 Sanyo Electric Co., Ltd. Image display device and program
JP2005004341A (ja) 2003-06-10 2005-01-06 Sanyo Electric Co Ltd 画像表示装置およびコンピュータに画像表示機能を付与するプログラム
JP2005073049A (ja) * 2003-08-26 2005-03-17 Sharp Corp 立体映像再生装置および立体映像再生方法
EP2413323A1 (en) 2004-06-03 2012-02-01 Panasonic Corporation Reproduction device and method
RU2407224C2 (ru) 2005-04-19 2010-12-20 Конинклейке Филипс Электроникс Н.В. Восприятие глубины
WO2007111208A1 (ja) * 2006-03-24 2007-10-04 Matsushita Electric Industrial Co., Ltd. 再生装置、デバッグ装置、システムlsi、プログラム
WO2007116549A1 (ja) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha 画像処理装置
US8358332B2 (en) * 2007-07-23 2013-01-22 Disney Enterprises, Inc. Generation of three-dimensional movies with improved depth control
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
GB0806183D0 (en) * 2008-04-04 2008-05-14 Picsel Res Ltd Presentation of objects in 3D displays
JP5368463B2 (ja) 2008-09-18 2013-12-18 パナソニック株式会社 立体視映像再生装置、及び立体視映像表示装置
CN102150434A (zh) * 2008-09-18 2011-08-10 松下电器产业株式会社 立体视觉再现影像内容的再现装置、再现方法及再现程序
WO2010052857A1 (ja) * 2008-11-06 2010-05-14 パナソニック株式会社 再生装置、再生方法、再生プログラム、及び集積回路
US8335425B2 (en) 2008-11-18 2012-12-18 Panasonic Corporation Playback apparatus, playback method, and program for performing stereoscopic playback
US8301013B2 (en) * 2008-11-18 2012-10-30 Panasonic Corporation Reproduction device, reproduction method, and program for stereoscopic reproduction
RU2538335C2 (ru) * 2009-02-17 2015-01-10 Конинклейке Филипс Электроникс Н.В. Объединение данных 3d изображения и графических данных
JP4919122B2 (ja) * 2009-04-03 2012-04-18 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2010143439A1 (ja) * 2009-06-12 2010-12-16 パナソニック株式会社 再生装置、集積回路、記録媒体
BRPI1013557A8 (pt) * 2009-09-25 2017-07-11 Panasonic Corp Dispositivo de reprodução, meio de gravação e circuito integrado
US20110080462A1 (en) 2009-10-02 2011-04-07 Panasonic Corporation Playback device, integrated circuit, playback method, and program for stereoscopic video playback
US9066076B2 (en) * 2009-10-30 2015-06-23 Mitsubishi Electric Corporation Video display control method and apparatus
JP5564117B2 (ja) * 2009-11-06 2014-07-30 ソニー コーポレイション オブ アメリカ 立体オーバーレイオフセットの作成及び編集

Also Published As

Publication number Publication date
US20130021435A1 (en) 2013-01-24
RU2011118876A (ru) 2012-12-27
EP2348746A1 (en) 2011-07-27
JP5341946B2 (ja) 2013-11-13
TW201032577A (en) 2010-09-01
BRPI0922046A2 (pt) 2019-09-24
US20110211815A1 (en) 2011-09-01
JPWO2010058546A1 (ja) 2012-04-19
CN102210156A (zh) 2011-10-05
CN102210156B (zh) 2013-12-18
EP2348746B1 (en) 2015-03-11
EP2348746A4 (en) 2013-03-06
TWI361614B (es) 2012-04-01
WO2010058546A1 (ja) 2010-05-27
US8301013B2 (en) 2012-10-30
JP4772163B2 (ja) 2011-09-14
RU2512135C2 (ru) 2014-04-10
JP2011239373A (ja) 2011-11-24
TW201145979A (en) 2011-12-16

Similar Documents

Publication Publication Date Title
ES2537073T3 (es) Dispositivo de reproducción, método de reproducción y programa para reproducción estereoscópica
JP5395117B2 (ja) 立体視再生が可能な再生装置、再生方法、プログラム
US8335425B2 (en) Playback apparatus, playback method, and program for performing stereoscopic playback
JP4923162B2 (ja) 受信装置、受信方法
JP5416073B2 (ja) 半導体集積回路
ES2428921T3 (es) Medio de grabación, dispositivo de reproducción, dispositivo de grabación, procedimiento de reproducción, procedimiento de grabación y programa