ES2962609T3 - Canal integrado de procesamiento multimedia - Google Patents

Canal integrado de procesamiento multimedia Download PDF

Info

Publication number
ES2962609T3
ES2962609T3 ES17000718T ES17000718T ES2962609T3 ES 2962609 T3 ES2962609 T3 ES 2962609T3 ES 17000718 T ES17000718 T ES 17000718T ES 17000718 T ES17000718 T ES 17000718T ES 2962609 T3 ES2962609 T3 ES 2962609T3
Authority
ES
Spain
Prior art keywords
scene
instance
multimedia
media asset
asset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17000718T
Other languages
English (en)
Inventor
Cevat Yerli
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Calany Holding Sarl
Original Assignee
Calany Holding Sarl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Calany Holding Sarl filed Critical Calany Holding Sarl
Application granted granted Critical
Publication of ES2962609T3 publication Critical patent/ES2962609T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Se describe un método para procesar contenido multimedia en un entorno multimedia. El método comprende proporcionar una pluralidad de activos de medios, teniendo cada activo de medios una pluralidad de atributos, crear una instancia de al menos uno de la pluralidad de activos de medios, generando de este modo una o más instancias de los respectivos activos de medios, en donde cada instancia hereda la pluralidad de atributos de el activo de medios respectivo y en el que un cambio de un atributo de un recurso de medios se propaga a todas las instancias del activo de medios, creando al menos una escena y poblando la al menos una escena con una o más instancias de los activos de medios respectivos, creando al menos una escena al menos una toma animando en al menos una toma los atributos de al menos una instancia en al menos una escena, creando una secuencia que incluye al menos una toma y renderizando la secuencia. Además, se divulgan un dispositivo informático y un sistema para procesar contenido multimedia. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Canal integrado de procesamiento multimedia
Campo técnico
La presente divulgación se refiere a un método, a un dispositivo informático y a un sistema para el procesamiento de contenido multimedia. En particular, el contenido multimedia puede procesarse en un entorno multimedia integrado.
Antecedentes
En el proceso clásico de realización de películas, se distinguen múltiples etapas, que incluyen una etapa de preproducción, en la que se lleva a cabo la preparación para la filmación de la película; una etapa de producción, en la que se graban los elementos en bruto de la película, y una etapa postproducción, en la que se editan las imágenes, sonidos y efectos visuales de la película filmada. Posteriormente, se distribuye y proyecta la película acabada, por ejemplo, en cines, o se distribuye a vídeo doméstico. Dichas etapas son separadas y requieren diferente personal y herramientas. De acuerdo con lo anterior, al completar una etapa, tal como la producción de la película, en la posterior etapa postproducción, podría resultar difícil modificar el material grabado de película o incluso añadir contenido adicional. Durante las etapas, se utilizan diferentes herramientas para gestionar, registrar y procesar el contenido multimedia, tal como durante la edición del material cinematográfico grabado. Debido a la diversidad de herramientas utilizadas durante la producción y postproducción de una película, el material debe ser exportado y reimportando utilizando diversos formatos diferentes. Por ejemplo, se utilizan herramientas diferentes de creación de contenido digital (CCD) durante la postproducción, cada una de las cuales requiere una entrada individual de datos filmados en bruto. La salida de una herramienta de CCD debe convertirse nuevamente para ser reimportada en otras herramientas.
Lo anterior puede conducir a un procesamiento complejo del material cinematográfico grabado. Además, podría resultar difícil introducir nuevo contenido multimedia, o modificar contenido multimedia ya grabado, en etapas de procesamiento posteriores.
El documento "Adobe Animate CC Help", 2016, es un documento de ayuda para un software para la creación de contenidos digitales. Los símbolos relacionados con los elementos multimedia, o sus instancias, pueden organizarse en etapas. La edición de un símbolo actualiza la totalidad de sus instancias, pero la aplicación de efectos en una instancia de un símbolo actualiza solo esa instancia. Cuando se edita un símbolo, cualesquiera propiedades de instancia modificadas localmente siguen aplicándose a la instancia.
El documento n° US 8253728 B1 da a conocer un enfoque para asociar con cada videoclip en una secuencia de uno o más videoclips, una copia de una escena tridimensional que se ha utilizado para crear el videoclip, en donde el videoclip es una secuencia de una o más imágenes que ilustran la escena 3D respectiva del videoclip desde la perspectiva de una o más cámaras virtuales. En respuesta a la recepción de una entrada que identifica un videoclip dentro de la secuencia, se presenta en un editor una copia de la copia asociada de la escena 3D del videoclip identificado.
La publicación "How to do not apply fields inprefab"["Cómo no aplicar campos en unprefab"]en el fórum de Unity el 19 de febrero de 2013 y las respuestas a la misma, disponibles en https://answers.unity.com/questions/402138/howto-dont-appIy-fields-in-prefab.html, debaten cómo se actualizan los valores de unprefaba lo largo de las instancias del mismo. Las actualizaciones a un valor de unprefabse propagan a todas las instancias delprefab.Para dejar de utilizar el valor delprefaben algunas instancias delprefab.puede modificarse el valor de la instancia dada en el inspector en la instancia. Lo anterior hará que valor se muestre en negrita, lo que significa que ha sido modificado en esta instancia.
Resumen
Los objetivos anteriormente indicados se resuelven mediante un método, un dispositivo informático y un sistema según las reivindicaciones independientes. Las realizaciones preferentes se definen en las reivindicaciones dependientes.
Según un primer aspecto de la presente divulgación, se proporciona un método para el procesamiento de contenido multimedia en un entorno multimedia, en el que el método comprende proporcionar una pluralidad de activos multimedia, en donde cada activo multimedia presenta una pluralidad de atributos, instanciando al menos uno de la pluralidad de activos multimedia, generando de esta manear una o más instancias de activos multimedia respectivos, en donde cada instancia hereda la pluralidad de atributos del activo multimedia respectivo y en donde un cambio en un atributo de un activo multimedia es propagado a todas las instancias del activo multimedia, creando al menos una escena e incluyendo en la al menos una escena la al menos una instancia de los activos multimedia respectivos, creando al menos una toma mediante animación de al menos uno de los atributos de la toma de al menos una instancia en la al menos una escena, creando una secuencia que incluye la al menos una toma y renderizando la secuencia.
Tal como se utiliza a lo largo de toda la presente divulgación, un activo multimedia se refiere a diversos contenidos o entidades (multimedia) implicados en la producción y postproducción del contenido multimedia. Por ejemplo, un activo multimedia puede ser uno más de los siguientes: objetos reales o virtuales, personajes reales o virtuales, partículas, cámaras, luces y datos de audio, en cualquier combinación. Por lo tanto, un activo multimedia puede corresponder a un personaje real, que puede estar representado por un actor, o el activo multimedia puede corresponder a un personaje virtual, que puede ser un personaje generado por ordenador que puede estar, sin embargo, controlado por un actor. Cada activo multimedia presenta una pluralidad de atributos, que puede definir propiedades del activo multimedia, tal como la apariencia o el comportamiento del activo multimedia. Por ejemplo, mediante la modificación de un atributo de un activo multimedia, el activo multimedia puede aparecer en una posición diferente en una escena o puede presentar una apariencia diferente. Los activos multimedia pueden considerarse plantillas maestras, de manera que cuando un operador crea una instancia de la plantilla maestra (o activo multimedia) en una escena, se produce una copia de la plantilla maestra (o activo multimedia), aunque puede conservarse un vínculo entre la instancia y la plantilla maestra (o activo multimedia). Puede hacerse referencia a dicho concepto a lo largo de toda la presente divulgación como un "arquetipo". Cuando un operador cambia el estado de una plantilla maestra (o activo multimedia), por ejemplo, mediante la modificación de un valor de un atributo del activo multimedia, el cambio puede propagarse corriente abajo a todas las instancias de la plantilla maestra o activo multimedia. Lo anterior permite un cambio rápido de todas las instancias en todas las escenas del contenido multimedia de una vez prácticamente al instante.
En una escena pueden incluirse normalmente una pluralidad de instancias de activos multimedia correspondientes. Puede considerarse que un atributo de un activo multimedia es una propiedad del activo, tal como, por ejemplo, una longitud focal de una cámara que está representada por un activo multimedia. De acuerdo con lo anterior, una escena define una organización o configuración de instancias individuales de activos multimedia que se combinan.
Se crea una toma de una escena mediante animación de los atributos de las instancias de los activos multimedia en la escena. De acuerdo con lo anterior, puede considerarse que una toma de una escena es una aplicación de datos de animación a instancias de la escena. La toma o una pluralidad de tomas (adicionales) se combina en una secuencia. Por ejemplo, la secuencia puede incluir una pluralidad de tomas que pueden cortarse y combinarse entre sí basándose en una línea temporal.
La secuencia se renderiza para generar el contenido multimedia. Tal como se utiliza a lo largo de toda la presente divulgación, la renderización de la secuencia se refiere a la renderización (multimodal), que puede incluir la renderización visual y de audio, por ejemplo, para generar una secuencia de vídeo. Sin embargo, debe entenderse que la renderización puede comprender, además, una renderización háptica o la renderización de cualquier otra modalidad, que puede, por ejemplo, utilizarse para generar contenido de realidad virtual (RV). De acuerdo con lo anterior, la secuencia renderizada puede estar lista para su visualización en dispositivos de visualización adecuados. La renderización puede llevarse a cabo utilizando un motor de gráficos en tiempo real con el fin de permitir una evaluación directa de los resultados en tiempo real o con el fin de permitir elstreamingdirecto de la secuencia renderizada a un dispositivo de visualización o entorno de visualización para la proyección o la revisión del contenido multimedia.
La presente divulgación permite un procesamiento integrado del contenido multimedia en un entorno multimedia, que integra la instanciación de activos multimedia para escenas, la animación de las instancias en tomas, el ensamblaje de las tomas en secuencias y la renderización de las secuencias en un entorno único e integrado. Lo anterior permite un procesamiento fluido de diversas fuentes multimedia, la adaptación de propiedades de las fuentes multimedia individuales, tales como activos multimedia, una animación directa de instancias de los activos multimedia, y la renderización final de la secuencia de una manera unificada sin ninguna exportación o importación de datos intermedios.
En una realización preferente, el método comprende, además, modificar un atributo de una instancia, creando de esta manera un valor local del atributo. De acuerdo con lo anterior, las instancias pueden modificarse localmente, en donde un atributo modificado localmente de una instancia puede sobrescribirse con el valor local.
Según la invención, dicha propagación de un cambio de un atributo de un activo multimedia incluye determinar para cada instancia del activo multimedia si el atributo correspondiente ha sido modificado localmente en la instancia, y anulando un atributo correspondiente en la instancia del activo multimedia únicamente si el atributo correspondiente no ha sido modificado localmente en la instancia. De acuerdo con lo anterior, cada atributo de una instancia puede sobrescribirse con el valor local en lugar de un cambio propagado a la plantilla maestra o activo multimedia.
La invención comprende proporcionar en la al menos una escena, una indicación de una sobreescritura de un atributo de una instancia. La indicación puede ser una indicación gráfica, que puede proporcionarse en una interfaz de usuario (gráfica) para informar a un operador sobre un cambio respectivo de atributos en instancias respectivas. Lo anterior puede permitir al operador reaccionar a los cambios propagados y ajustar los valores propagados en la instancia modificada localmente en caso necesario. Ello proporciona un control directo de la sobreescritura de atributos de acuerdo con el enfoque de arquetipo.
La invención comprende, además, crear una escena adicional y referenciar una escena de entre la al menos una escena en la escena adicional, en donde las actualizaciones de instancias en la escena referenciada se propagan a la escena adicional. Ello permite incluir en una escena adicional "escenasprefab".Por ejemplo, en un proyecto cinematográfico, pueden filmarse diferentes escenas en la misma localización. En lugar de recrear la localización para cada escena, podría crearse la localización una vez (como escenaprefab)y podría referenciarse en cualesquiera escenas adicionales en las que deba utilizarse la localización. Cualesquiera actualizaciones de la escena, que puede incluir actualizaciones de instancias en la escena referenciada, pueden propagarse a la escena adicional utilizando un mecanismo de referencia, similar a la propagación de cambios de atributos de un activo multimedia. Un operador puede crear una escena de la forma habitual y referenciar la escena en otra escena con el fin de utilizarla. Lo anterior puede llevarse a cabo, por ejemplo, mediante arrastre y soltado, en una interfaz de usuario (gráfica), de una escena que debe referenciarse en otra escena adicional. La escena referenciada puede aparecer en la interfaz de usuario, por ejemplo, en cursiva bajo la escena adicional que hace referencia a ella. Al igual que con el sistema de arquetipo, en el caso de que se actualice el estado de un activo, una instancia o un objeto, tal como luces, cámaras, geometría, etc., en una escena referenciada, entonces se propagarán estas actualizaciones a todas las escenas adicionales que hacen referencia a ella. Aunque los términos y expresiones "escena", "escena adicional" y "escena referenciada" se utilizan a lo largo de toda la presente divulgación, debe entenderse que dichas escenas representan el mismo tipo de escena. De acuerdo con lo anterior, una escena adicional o escena referenciada podría animarse en una toma, referenciarse en todavía otra escena, podría hacer referencia a otra escena referenciada, o podría procesarse de la misma manera que una escena, en cualquier combinación.
Dicha propagación de actualizaciones de instancias incluye determinar para cada instancia correspondiente en la escena adicional si la instancia ha sido modificada localmente en la escena adicional, y sobrescribir una instancia correspondiente con la actualización únicamente en el caso de que la instancia correspondiente no se haya modificado localmente en la escena adicional. Sin embargo, en cuanto una entidad o instancia de la escena referenciada se haya modificado localmente en la escena adicional, las actualizaciones posteriores de la entidad o instancia no influirán en la entidad o instancia en la escena adicional. Además, una actualización en la entidad o instancia en la escena adicional no influirá sobre la entidad o instancia en la escena referenciada. Se proporciona una indicación de una sobreescritura de una instancia en la forma de una indicación gráfica que se visualizará en una interfaz de usuario (gráfica).
Las indicaciones de una sobreescritura de un atributo de una instancia según la plantilla maestra o arquetipo de un activo multimedia pueden distinguirse de una indicación de una sobreescritura de una instancia en una escena referenciada, por ejemplo, utilizando un esquema de código de colores. Por ejemplo, una indicación de una sobreescritura de una escena referenciada puede presentarse a un operador utilizando un color azul (o cualquier otro color adecuado), mientras que las sobreescrituras de una instancia de un activo multimedia pueden indicarse en un color verde (o en cualquier otro color, aunque diferente del primero). Sin embargo, debe entenderse que los esquemas de código de colores respectivos pueden personalizarse y pueden utilizarse cualesquiera otros colores, o incluso los mismos colores, para presentar las indicaciones. Además de un esquema de código de colores, la apariencia de las indicaciones puede cambiar con el fin de permitir diferenciar la propagación de actualizaciones con respecto a la propagación de cambios en una interfaz de usuario (gráfica).
En otra realización, los atributos de las instancias han sido animados utilizando datos de animación. Preferentemente, la animación y/o los datos de animación se basan en cuadros clave. Tal como se utiliza a lo largo de toda la divulgación, una animación de atributos de instancias puede referirse a un cambio de los atributos durante el tiempo, que puede ser inducido por datos almacenados o recibidos, que define cuadros clave, muestras de datos de animación u otros datos de control. Sin embargo, debe entenderse que la animación no requiere un cambio de un atributo, que sí podría ser el caso en una escena estática. En este caso, la animación puede consistir en un solo cuadro clave que define un juego inicial particular de atributos y una duración de la animación para definir una toma (estática). En cuanto se utiliza una pluralidad de cuadros clave o muestras de datos de animación para al menos un atributo de una instancia, el enfoque puede interpolar el valor actual del atributo y el valor siguiente del atributo según indique el siguiente cuadro clave o la siguiente muestra de datos de animación con el fin de definir un cambio del atributo durante el tiempo. Por ejemplo, podría utilizarse una interpolación lineal. Sin embargo, debe entenderse que puede utilizarse cualquier otra técnica de interpolación, por ejemplo, una interpolación constante (a trozos), una interpolación polinómica o una interpolaciónspline.Además, los atributos podrían definir un tipo particular de animación o restricciones a la animación según un tipo e interrelación de activos multimedia, tal como cinemática directa y/o inversa con respecto a articulaciones (esqueleto) dispuestas jerárquicamente de un activo multimedia, y similares.
En una realización preferente, el método comprende, además, la recepción de datos de entrada, en donde los datos de animación se basan en los datos de entrada recibidos. Los datos de entrada pueden ser datos de rastreo en tiempo real de un sistema conectado de rastreo. Los datos de animación derivados de los datos de seguimiento en tiempo real pueden registrarse y utilizarse para la animación a fin de crear una toma respectiva. Por ejemplo, el sistema conectado de seguimiento puede ser un sistema de seguimiento de una cámara o un sistema de captura de movimiento que puede rastrear una actuación en directo de actores. Los datos de seguimiento en tiempo real pueden procesarse y localizarse en activos multimedia o instancias de activos multimedia en las escenas y pueden utilizarse directamente para la animación de las instancias de los activos multimedia en la toma. De acuerdo con lo anterior, puede visualizarse cualquier actuación en directo en la escena animada de la toma. Lo anterior permite una producción y postproducción integradas en un entorno multimedia único y unificado, que podría permitir al creador u operador definir activos multimedia y sus instancias en escenas, conectar las instancias a datos de seguimiento en directo, y la animación de la escena en una toma en tiempo real. Debido a que cualquier resultado puede visualizarse directamente, el creador u operador puede reaccionar directamente en una configuración particular de la escena o actuación de los actores (reales) y en correspondencia puede ajustar los activos multimedia y las escenas, lo que acelera el ciclo de producción.
En otra realización más, el método comprende, además, combinar al menos una parte de primeros datos de animación dirigidos a al menos una instancia de un primer activo multimedia en la al menos una escena con al menos una parte de segundos datos de animación dirigidos a al menos una instancia de un segundo activo multimedia en la al menos una escena y la utilización de los datos de animación combinados para crear una toma adicional. Por ejemplo, un primer y un segundo activo multimedia, tal como dos actores diferentes, pueden representarse en una única escena, que puede animarse en una pluralidad de tomas utilizando diferentes datos de animación, que pueden generarse mediante una actuación real de los actores para las diferentes tomas. Por ejemplo, pueden filmarse ambos actores simultáneamente, generando de esta manera varias tomas. En el caso de que la actuación del primer actor sea mejor en una primera toma y la actuación del otro actor sea mejor en una segunda toma, pueden combinarse los datos de animación respectivos de cada actor de la primera y segunda tomas para generar una toma adicional, lo que también se denomina en la presente divulgación "toma combinada". Lo anterior proporciona una gran flexibilidad en la combinación de datos de animación para generar tomas individuales.
Preferentemente, se genera una previsualización de la animación de una toma basándose en los datos de seguimiento en directo y se proporciona a un usuario en tiempo real.
En otra realización más, dicha renderización de la secuencia comprende aplicar uno o más filtros a la secuencia. Por ejemplo, las secuencias pueden clasificarse individualmente o todas juntas simultáneamente. Preferentemente, puede aplicarse un grado local a cada toma que forma la secuencia, o puede aplicarse un grado global a toda la secuencia. Pueden aplicarse filtros y operaciones de postprocesamiento adicionales, sin ninguna limitación, tales como un mapeador de tonos, que posiblemente podría instalarse en una cámara.
En una realización adicional, el método comprende, además, la publicación de la secuencia renderizada mediante una plataforma de publicación. El contenido multimedia que representa la secuencia renderizada puede exportarse a un archivo que puede ser leído por un dispositivo multimedia o que puede proporcionarse en forma destreamingque puede ser transmitido directamente y recibido por un dispositivo multimedia para reproducir el contenido multimedia. Por ejemplo, el dispositivo multimedia puede ser un reproductor de realidad virtual (RV) para reproducir el contenido multimedia de RV en tiempo real. De manera similar, el contenido multimedia de la secuencia renderizada puede publicarse por internet utilizando un sistema de publicación en línea para contenido multimedia, tal como un sitio web de vídeo o un canal de distribución específico.
En una realización particularmente preferente, el contenido multimedia es una película. La película puede ser una película 2D lineal o no lineal o una película 3D. Además, el contenido multimedia puede ser contenido de RV que permita una percepción inmersiva y/o interactiva del contenido multimedia.
Según un segundo aspecto de la presente divulgación, se proporciona un dispositivo informático, en el que el dispositivo informático comprende una memoria que almacena una pluralidad de activos multimedia y un procesador que proporciona un canal de procesamiento para el procesamiento de contenido multimedia en un entorno multimedia integrado. El dispositivo informático puede comprender, además, una pantalla. El procesador está configurado para proporcionar una pluralidad de activos multimedia, en los que cada uno de los activos multimedia puede presentar una pluralidad de atributos, para instanciar al menos uno de la pluralidad de activos multimedia, generando de esta manera una o más instancias de activos multimedia respectivos, en donde cada instancia hereda la pluralidad de atributos de los activos multimedia respectivos y en donde un cambio de un atributo de un activo multimedia se propaga a todas las instancias del activo multimedia. El procesador está configurado adicionalmente para crear al menos una escena e incluir en la al menos una escena con la al menos una instancia de activos multimedia respectivos, para crear al menos una toma mediante animación de al menos un atributo de la toma de al menos una instancia en la al menos una escena, a fin de crear una secuencia que incluya la al menos una toma y de renderizar la secuencia. La pantalla puede configurarse para mostrar la secuencia renderizada.
La memoria almacena instrucciones ejecutables por ordenador, y las instrucciones, al ser ejecutadas por el procesador, configuran el dispositivo informático para llevar a cabo un método según una o más realizaciones de la presente divulgación.
El dispositivo informático puede ejecutar una sola herramienta o aplicación de software, que puede estar representada por las instrucciones ejecutables por ordenador, en donde la herramienta o aplicación implementa el flujo de trabajo o canal de procesamiento según realizaciones de la presente divulgación en el dispositivo informático. Por lo tanto, el dispositivo informático según la presente divulgación puede entenderse como una única estación de trabajo de procesamiento que proporciona un entorno multimedia integrado para procesar el contenido multimedia.
En un tercer aspecto de la presente divulgación, se proporciona un sistema para el procesamiento de contenido multimedia, en el que el sistema comprende al menos un dispositivo informático según una o más realizaciones de la presente divulgación, una red y al menos un sistema de seguimiento acoplado con al menos un dispositivo informático mediante la red, en el que el sistema de seguimiento proporciona datos de animación al dispositivo o dispositivos informáticos.
El sistema o sistemas de seguimiento pueden ser un sistema de captura del movimiento o un sistema de seguimiento de cámara, que puede realizar un seguimiento de la actuación de los actores, de parámetros de una escena y de activos, tales como cámaras, luces y similares, en una grabación en directo. Los datos de seguimiento en directo del sistema de seguimiento pueden proporcionarse directamente al dispositivo informático para permitir una animación de las instancias de activos multimedia (que representan los actores, cámaras o luces seguidos) en las escenas a fin de crear las tomas respectivas.
Debe entenderse que las etapas de procesamiento de los métodos según una o más realizaciones de la presente divulgación pueden combinarse libremente para definir el procesamiento de componentes estructurales de dispositivos o sistemas informáticos según una o más realizaciones de la presente divulgación. De manera similar, una configuración funcional de componentes estructurales de dispositivos o sistemas informáticos según realizaciones de la presente divulgación puede definir etapas de procesamiento individuales de métodos según realizaciones de la presente divulgación, en cualquier combinación.
En otro aspecto de la presente divulgación, se proporciona uno o más medios legibles por ordenador (no transitorios) en el que están almacenadas instrucciones, en donde las instrucciones, al ser ejecutadas por un ordenador, pueden configurar el ordenador para llevar a cabo un método según una o más realizaciones de la presente divulgación. Por ejemplo, el ordenador puede ser el dispositivo informático según una o más realizaciones de la presente divulgación.
Breve descripción de los dibujos
Las características, aspectos y ventajas específicos de la presente divulgación se entenderán mejor con respecto a la descripción y dibujos adjuntos siguientes, en los que:
Fig. 1 es un gráfico de flujo de un flujo de trabajo de filmación en tiempo real según una realización de la presente divulgación;
Fig. 2 muestra una interfaz gráfica de usuario de una herramienta que implementa el flujo de trabajo según una realización de la presente divulgación;
Fig. 3 muestra una interfaz gráfica de usuario que permite la creación de escenas según una realización de la presente divulgación;
Fig. 4 ilustra una interfaz gráfica de usuario que permite la creación de tomas según una realización de la presente divulgación;
Fig. 5 ilustra el procedimiento de creación de una secuencia según una realización de la presente divulgación, y Fig. 6 muestra una interfaz gráfica de usuario que ilustra la renderización de una secuencia según una realización de la presente divulgación.
Descripción detallada
En la descripción a continuación se hace referencia a dibujos que muestran a título ilustrativo diversas realizaciones. Además, se describen posteriormente diversas realizaciones en referencia a varios ejemplos. Debe entenderse que las realizaciones pueden incluir cambios en el diseño y estructura sin apartarse del alcance del objeto reivindicado.
La fig. 1 ilustra un diagrama de flujo de un flujo de trabajo en tiempo real según una realización de la presente divulgación. El flujo de trabajo 100 puede definir el procesamiento de multimedia, tal como durante el proceso de realización de una película, y puede realizarse en un entorno multimedia integrado 102, tal como en una única herramienta o una aplicación de software.
El flujo de trabajo 100 puede iniciarse en el ítem 104, en donde puede proporcionarse una pluralidad de activos multimedia. Cada activo multimedia puede caracterizarse por una pluralidad de atributos. Los activos multimedia pueden utilizarse para crear instancias de los activos multimedia. Cada instancia puede heredar una pluralidad de atributos de un activo multimedia respectivo y puede vincularse al activo multimedia de manera que un cambio de un atributo del activo multimedia se propague a todas las instancias del activo multimedia.
En el ítem 106, puede crearse una o más escenas e incluir en ella/s una o más instancias de los activos multimedia respectivos. Seguidamente, puede crearse una o más tomas en el ítem 108, mediante animación de atributos de las instancias en las escenas respectivas asociadas a la toma, en el ítem 110.
Aunque la provisión de activos multimedia y la creación de escenas y tomas en los ítems 104, 106 y 108, respectivamente, puede ser llevada a cabo por un componente delineador 112 de proyecto del flujo de trabajo 100, la animación en el ítem 110 puede estar soportada y controlada por un componente editor de toma y un componente inspector 114 del flujo de trabajo 100.
Las escenas animadas de las tomas pueden utilizarse para crear una o más secuencias que pueden combinarse en el ítem 116. El procesamiento del ítem 116 puede estar soportado en el componente delineador 112 de proyecto en combinación con un componente editor 118 de secuencias.
Además de las tomas generadas en el ítem 110, la secuencia puede combinar, mezclar y/o montar uno o más planos 2D, escenas 3D, tal como escenas de gráficos generados por ordenador, y audio. Sin embargo, debe entenderse que las secuencias pueden incluir datos multimedia para cualquier modalidad, tal como para contenido de RV, que puede ser proporcionado por cualquier tipo de fuente multimedia.
La secuencia creada en el ítem 116 puede proporcionarse a un componente de salida 120 del flujo de trabajo 100, que puede renderizar la secuencia con el fin de generar contenido multimedia para la distribución, publicación o proyección o revisión inmediata. Por ejemplo, una película 2D o 3D más audio puede renderizarse en el ítem 122. El procesamiento del ítem 122 puede estar soportado en el componente editor 118 de secuencias en combinación con un componente de diálogo de renderización por lotes 124. La secuencia creada también podría renderizarse y exportarse como contenido de RV en el ítem 126, que puede proporcionarse a un reproductor de RV 128. Adicionalmente, o como alternativa, la secuencia creada puede renderizarse y distribuirse mediante funciones de publicación 130 del flujo de trabajo 100, que pueden ser funciones de publicación integradas en el software o similares, para proporcionar el contenido multimedia según la secuencia renderizada mediante diversos canales de distribución, por ejemplo, mediante una plataforma de publicación de vídeo.
De acuerdo con lo anterior, el flujo de trabajo 100 define un canal de procesamiento integrado para el procesamiento de contenido multimedia en un entorno integrado 102. El flujo de trabajo 100 permite a un operador crear contenido digital, tal como gráficos y/o audio, para una película y RV dentro de la misma aplicación a alta velocidad o en tiempo real, incluyendo la renderización del contenido multimedia, la reproducción del contenido multimedia, por ejemplo, utilizando el reproductor de RV dedicado 128, y/o la publicación.
Tal como se muestra en la fig. 1, el flujo de trabajo 100 puede implementarse utilizando un canal que incluye uno o más componentes o módulos que pueden realizarse en software o hardware en el entorno multimedia integrado 102. Los componentes pueden incluir uno o más de delineador 112 de proyectos, un delineador de escenas (no mostrado), una ventana gráfica (no mostrada), el editor de tomas 114, el editor de secuencias 118, un inspector (mostrado en combinación con el editor de tomas 114), el diálogo de renderización por lotes 124 y el reproductor de RV 128, así como funcionalidades integradas de publicación. Un operador o usuario puede controlar uno o más de los componentes mediante una interfaz de usuario (gráfica), tal como se comenta adicionalmente después en referencia a las figuras 2 a 6.
El flujo de trabajo 100 y el componente respectivo permiten al operador del entorno multimedia integrado 102 crear contenido multimedia lineal o no lineal, tal como contenido fílmico, desde el principio hasta el final sin dejar en ningún momento el entorno multimedia integrado 102 y, además, mantener juntos todos los datos que constituyen el contenido multimedia, con independencia de si los datos son activos 3D, tales como escenas de gráficos generados por<ordenador, o activos>2<d>,<tales como planos o metraje, o activos de audio, datos de animación y similares. Los datos>pueden contener, además, información sobre cómo estos activos multimedia deben ensamblarse entre sí y cómo las diferentes escenas, tomas y secuencias que constituyen el contenido multimedia deben ensamblarse entre sí.
Las técnicas o métodos descritos en el presente documento pueden implementarse en diversos sistemas informáticos. Dichos sistemas generalmente implican la utilización de dispositivos informáticos convenientemente configurados que implementan varios módulos, cada uno de los cuales proporciona una o más operaciones necesarias para completar la ejecución de dichas técnicas. Cada módulo puede implementarse de una manera propia; no es necesario que se implementen todos del mismo modo. Tal como se utiliza en el presente documento, un módulo es un componente estructural de un sistema que lleva a cabo una función operativa, que puede ser una parte o la totalidad de un elemento de software, tal como una función de un proceso, proceso discreto o cualquier otra realización adecuada. Un módulo puede comprender instrucciones ejecutables por ordenador y puede estar codificado en un medio de almacenamiento informático. Los módulos pueden ejecutarse en paralelo o en serie, según sea apropiado, y pueden pasar información entre sí utilizando una memoria compartida en el ordenador en el que se están ejecutando, utilizando un protocolo de paso de mensajes, o de cualquier otra manera adecuada. Se describen módulos ejemplares en referencia a realizaciones de la presente divulgación, tales como componentes del flujo de trabajo 100, como ejecutores de una o más tareas, aunque debería apreciarse que los módulos y la división de tareas se describen a modo meramente ilustrativo del tipo de módulos que podría implementar las técnicas ejemplares descritas en el presente documento, y que la presente divulgación no se encuentra limitada a implementarse en ningún número, división o tipo específico de módulos. En algunas implementaciones, toda la funcionalidad puede implementarse en un único módulo, que puede representar, por ejemplo, todo el flujo de trabajo 100.
La fig. 2 muestra una interfaz gráfica de usuario según una realización de la presente divulgación. La interfaz de usuario 200 puede representar un entorno multimedia integrado para implementar un flujo de trabajo para el procesamiento de contenido multimedia, tal como el flujo de trabajo 100 comentado en referencia a la fig. 1.
Tal como se muestra en la fig. 2, un activo multimedia, por ejemplo, que representa una cámara, puede crearse mediante la interacción con el elemento 202 de un delineador de proyecto 204, que puede corresponder al componente delineador de proyecto 112 del flujo de trabajo 100 mostrado en la fig. 1. Seguidamente, puede crearse una instancia del activo multimedia, tal como se muestra en el elemento 206 en un delineador de secuencias 208. La instancia del activo multimedia puede heredar atributos del activo multimedia, que pueden mostrarse en un componente inspector 210 de la interfaz gráfica de usuario 200. Además, la instancia del activo multimedia puede incluirse directamente en una escena (escena por defecto), que puede mostrarse en una ventana gráfica 212. Al menos algunos de los atributos pueden animarse con el fin de generar una o más tomas de la escena. Las tomas pueden combinarse en un editor de secuencias 214.
La interfaz gráfica de usuario 200 puede aplicarse a uno o más casos de uso.
Por ejemplo, en un primer caso utilizado, un operador de un sistema puede cargar activos multimedia en el sistema utilizando el delineador de proyectos 204. El delineador de proyectos 204 puede ser el lugar donde se recopilan todos los datos que se están utilizando para construir una película. El delineador de proyectos 204 puede actuar como una base de datos que conserva un registro de todos los datos importados al proyecto. Entre los datos o activos multimedia pueden incluirse uno o más de metraje, animación, objetos, personajes, escenas y tomas, secuencias, audio, partículas, luces, cámaras, Alembic/caché, conexiones con sistemas de seguimiento en directo (conexiones LiveSynch), materiales y otros, en cualquier combinación adecuada. Por ejemplo, entre los activos multimedia pueden incluirse uno o más de objetos, personajes, partículas, cámaras, luces y/o audio.
Todos los activos multimedia y datos adicionales importados al proyecto pueden aparecer en el delineador de proyectos 204. Sin embargo, debe entenderse que en este punto los activos y datos multimedia no se utilizan necesariamente en escenas individuales. Por el contrario, los activos multimedia y otros datos solo pueden observarse como una plantilla maestra o arquetipo a partir del cual pueden crearse instancias para el uso en escenas individuales.
Una vez el operador ha importado los activos multimedia y datos adicionales que constituyen el proyecto de película, el operador puede crear un número deseado de escenas, por ejemplo, mediante la definición de una perspectiva y organizando instancias de los activos multimedia en la escena. El operador puede pasar libremente de una escena a otra durante la misma sesión. En cada ocasión en que el operador cambia de escena, la ventana 212 puede mostrar el contenido de las escenas seleccionadas.
Con el fin de incluir en una escena creada activos multimedia y otros datos, el operador puede crear instancias de los activos multimedia desde el delineador de proyectos 204. Aunque los activos multimedia del delineador de proyectos 204 pueden considerarse plantillas maestras o arquetipos, que heredan atributos del activo multimedia, las instancias también pueden cambiarse localmente. Preferentemente, cada atributo de una instancia puede sobrescribirse con un valor local. Por ejemplo, un activo multimedia M puede presentar los atributos A y B, que pueden ser iguales a 1 y 3, respectivamente. En el caso de que se cree una instancia Mi del activo multimedia M, Mi heredará atributos que resulten en Mi->A y Mi->B, y los valores de los atributos heredados de la instancia Mi pueden ser iguales a 1 y 3, respectivamente. En el caso de que el valor de A en M se cambie a 2, entonces dicho valor se propagará a todos los Mi cuyo atributo A también se fijará en 2 automáticamente, resultando en Mi-> = 2. Entonces, si el operador decide modificar localmente dicho atributo con el valor de 7, Mi->A = 7, ello no afectará al atributo de los activos multimedia y M->A todavía será igual a 2. Cualquier cambio posterior de A en M no modificará el valor de A en Mi.
Dicho principio podría aplicarse a cualesquiera atributos de cualesquiera activos multimedia que constituyan las escenas, con independencia de tipo de atributo, tal comofloat, double, matrix, file path,etc. Este enfoque puede utilizarse para modificar en un instante posiblemente miles de instancias de activos multimedia de una sola vez. Por ejemplo, en una situación en la que el diseño de un carácter principal, el cual está representado por un activo multimedia para toda la película, deba modificarse, ello puede llevarse a cabo eficientemente utilizando el enfoque de arquetipo, aunque el activo multimedia aparezca en cientos de escenas. En contraste, en un enfoque tradicional de la realización de películas, cada escena generada por ordenador que constituye la película tendría que abrirse, tendría que actualizarse la escena con el nuevo diseño de personaje, y la escena tendría que guardarse y renderizarse nuevamente en una secuencia de imágenes. Con el enfoque de arquetipo según realizaciones de la presente divulgación, el diseño del activo multimedia que representa el personaje puede modificarse una vez en el activo multimedia que representa la plantilla maestra o arquetipo, a partir del cual al menos algunas instancias del activo multimedia (aquellas con una sobreescritura local) serían modificadas automáticamente de una sola vez.
El concepto de arquetipos se aplica a todos los activos multimedia que constituyen un proyecto, tales como cámaras, luces, objetos, personajes y otros activos multimedia, en cualquier combinación. El contenido de cada escena, incluyendo una lista de instancias creadas a partir de arquetipos o plantillas maestras representadas como activos multimedia, pueden observarse en el delineador de escenas 208.
La fig. 3 muestra otra interfaz gráfica de usuario que permite un procesamiento según una realización de la presente divulgación. La interfaz de usuario 300 puede corresponder a una parte de la interfaz de usuario 200 mostrada en la fig. 2 y componentes similares de la interfaz de usuario 300 se denotan con los mismos números de referencia que los elementos correspondientes de la interfaz de usuario 200 de la fig. 2.
La interfaz de usuario 300 puede incluir un delineador de proyectos 204 y un delineador de escenas 206. Tal como se comenta con respecto a la fig. 2, el delineador de proyectos 305 puede utilizarse para definir activos multimedia y el delineador de escenas 208 puede utilizarse para gestionar instancias de los activos multimedia en las escenas respectivas, en donde el contenido de cada escena, que puede incluir una lista de instancias creadas a partir de arquetipos o plantillas maestras representadas por activos multimedia, pueden observarse en el delineador de escenas 208.
El sistema de referencia según realizaciones de la presente divulgación puede utilizarse para incluir rápidamente en escenas escenasprefabricadas,que también pueden denominarse escenasprefaba lo largo de toda la presente divulgación. Tal como se ha comentado anteriormente, en un proyecto fílmico puede resultar deseable filmar diferentes escenas en la misma localización. En lugar de recrear la localización para cada escena, podría resultar ventajoso crear una escena para la localización y referenciarla en escenas adicionales en las que vaya a utilizarse la localización. Lo anterior puede llevarse a cabo utilizando el mecanismo de referencia según una o más realizaciones de la presente divulgación. Un operador puede crear una escena (referenciada) y podría después referenciar esa escena (referenciada) en otra escena (referenciada). Por ejemplo, el operador puede arrastrar y soltar la escena referenciada en la escena de referenciado. La escena referenciada puede aparecer en cursiva o puede designarse de acuerdo con otro esquema adecuado y puede ordenarse de manera jerárquica bajo la escena referenciada. Tal como se muestra en la fig. 3, una escena "por defecto" podría referenciarse en la escena "NuevaEscena" en el ítem 302. De manera similar a la herencia de atributos de activos multimedia si se modifica el estado de un activo multimedia y la escena referenciada, los cambios o actualizaciones de la escena referenciada se propagan a la totalidad o a al menos alguna escena referenciada.
Por ejemplo, en el caso de que una escena A que se referencia en la escena B contenga un objeto O, entonces modificar la posición de O en A de [0,0,0] a [1,0,0] también cambiará la posición de O en B (B::A->O) a la misma localización. Sin embargo, en el caso de que la localización de O se cambia localmente en B a [0,0,2], entonces la posición de O en B se modificará, aunque no en la escena A, en donde el objeto permanecerá en [1,0,0]. Debe entenderse que los valores de un cambio de posición son ejemplos únicamente y cualquier otra instancia adecuada en la escena referenciada y de referencia pueden cambiarse sin ninguna limitación.
La fig. 4 muestra otra interfaz de usuario según una realización de la presente divulgación. La interfaz de usuario 400 puede comprender elementos similares o iguales a los de la interfaz de usuario 200 mostrada en la fig. 2. Por lo tanto, partes iguales o similares de la interfaz de usuario 400 se denotan con los mismos números de referencia que en la interfaz de usuario 200 en la fig. 2.
La interfaz de usuario 400 puede incluir un delineador de proyectos 204, un delineador de escenas 208 y una ventana gráfica 212. Además, la interfaz 400 incluye un editor de tomas 402.
Una vez se han incluido como contenido de una escena instancias de activos multimedia, tal como, por ejemplo, se ha comentado anteriormente en referencia a la fig. 2, pueden animarse cualesquiera tributos de las instancias que constituyen la escena, utilizando el editor de tomas 402. El editor de tomas 402 puede permitir la animación de los atributos de la instancia utilizando un enfoque estándar de cuadro clave. Pueden almacenarse o guardarse en tomas individuales versiones diferentes de una animación para una escena. Un operador puede crear tantas tomas en la escena como desee, en donde cada toma puede corresponder a diferentes datos de animación. De acuerdo con lo anterior, puede considerarse que una toma son datos de animación aplicados a instancias que constituyen una escena.
Además, en una animación basada en datos de animación almacenados, los atributos de instancias en las escenas pueden animarse utilizando datos de animación derivados de datos en directo recibidos de sistemas (o dispositivos) conectados de seguimiento o adquisición, los cuales pueden conectarse a los componentes del canal o al entorno multimedia integrado 102, tal como se muestra en la fig. 1. La capacidad de recibir y registrar cualesquiera datos en directo enviados a un dispositivo informático que implementa el canal desde otro sistema, tal como un sistema de control del movimiento, un sistema de captura de movimiento, un sistema de seguimiento de cámara o cualquier otro dispositivo utilizado habitualmente en la producción de películas o videojuegos, tal como controladores de vídeo y similares, también puede denominarse LiveSync a lo largo de toda la presente divulgación y puede formar parte del sistema de procesamiento de acuerdo con una o más realizaciones.
El sistema LiveSync puede estar compuesto de una serie deplugins,uno para cada dispositivo (o sistema) soportado de seguimiento o de adquisición de datos, que seguidamente podría enviar datos al sistema a través de una red. En el caso de que se encuentren disponibles varios dispositivos (o sistemas), pueden crearse varias instancias depluginspara recibir datos en directo. Una vez se ha establecido una conexión con el dispositivo (o sistema) de seguimiento o adquisición, que también puede denominarse conexión en directo, y se han recibido datos del dispositivo (o sistema) de seguimiento o adquisición, los datos pueden observarse en directo en el entorno multimedia integrado, por ejemplo, mediante la interfaz de usuario 400. Por ejemplo, pueden utilizarse datos de captura de movimiento para animar un personaje digital que está representado por una instancia de un activo multimedia respectivo. Además, pueden utilizarse datos del sistema de seguimiento de cámaras para animar los atributos de una cámara virtual, tal como una posición y orientación o una longitud focal de la cámara, y similares. Los datos recibidos pueden grabarse para el uso posterior. Además, pueden asociarse partes de los datos con una o más instancias de uno o más activos multimedia. Por ejemplo, un sistema de captura de movimiento puede capturar una actuación de una diversidad de actores simultáneamente y los datos recibidos, si están conectados al sistema de captura del movimiento a través de LiveSync, podrían asociarse con el movimiento de cada uno de los actores. Cada actor puede mostrarse como una entidad o instancia de un activo multimedia, y los datos de seguimiento asociados con (la instancia de) el activo multimedia puede grabarse individualmente.
Por ejemplo, si se utiliza un sistema de realización de la captura de movimiento y un sistema de seguimiento de cámaras con diferentes actores en el escenario, puede mostrarse la cámara y una lista de actores listos para ser grabados. Los personajes digitales representados por activos multimedia respectivos controlados por actores individuales en el escenario pueden mostrarse en tiempo real. Sin embargo, debe entenderse que la conexión en directo puede suspenderse en cualquier momento si se desea. Lo anterior puede resultar en la parada de la animación de atributos de (la instancia de) el activo multimedia respectivo, lo que puede resultar en que los personajes digitales detengan cualquier movimiento. La actuación de los actores puede grabarse, lo que puede resultar en la creación de una toma correspondiente. Por ejemplo, una toma puede considerarse como una grabación de la actuación de un actor.
La actuación de actores que ya ha sido grabada puede reproducirse mientras que las nuevas actuaciones, tal como de diferentes actores, puede grabarse simultáneamente. Cualquiera de las tomas que han sido pregrabadas para un personaje digital dado (u otro activo multimedia) para una escena dada pueden reproducirse, mientras que se graban las tomas para el mismo actor u otros actores en la escena que controlan esta misma escena, u otro personaje digital (o activo multimedia). Cuando, para una escena dada, se han seleccionado diferentes tomas para cada actor que constituyen la escena con el fin de reproducirlas mientras se graba la actuación de otros actores o mientras graba la cámara, puede crearse una animación combinada de una toma (una "toma combinada"). Una "toma combinada" puede ser una toma en la que cada personaje digital que constituye una escena hace referencia a una toma ya grabada. Por ejemplo, podrían definirse dos personajes A1 y A2 para una escena y podría grabarse la actuación de los personajes simultáneamente en varias tomas. La actuación de A1 puede seleccionarse en la toma i y la actuación de A2 puede seleccionarse en la toma j. Al final de la sesión de grabación, puede generarse una escena final en la que la actuación de A1 de la toma i puede utilizarse para animar un personaje digital D1, y la actuación de A2 de la toma j puede utilizarse para animar un personaje digital D2, lo que puede resultar en una combinación de actuaciones de los personajes individuales o instancias de activos multimedia que se han grabado en diferentes tiempos.
Este concepto es aplicable a la grabación de cualquier tipo de activo multimedia, tal como actores, cámaras o planos que han sido grabados a través de un sistema de alimentación de vídeo o similar. Durante una sesión de grabación, puede grabarse simultáneamente la actuación de un actor utilizando la captura de movimiento, parámetros de una cámara mediante la utilización de un sistema de seguimiento de cámaras y planos que utilizan señales de vídeo. Dichos elementos/datos pueden grabarse en una o más tomas y pueden utilizarse datos de animación de diferentes tomas para una escena para animar individualmente los activos multimedia respectivos, tales como actores, cámaras y planos, en la "toma combinada".
Las "tomas combinadas" resultan ventajosas ya que combinan tomas seleccionadas para generar una secuencia final con acción preferida para los activos multimedia individuales, tales como un personaje digital preferido, una cámara preferida, o planos preferidos, que a continuación pueden utilizarse directamente dentro del entorno multimedia integrado para generar el contenido multimedia final.
La fig. 5 muestra otra interfaz de usuario según una realización de la presente divulgación. La interfaz de usuario 500 puede ser similar a las interfaces de usuario 200 y 400 mostradas en las figs. 2 y 4, respectivamente. Por lo tanto, se han designado elementos similares con los mismos números de referencia. La interfaz de usuario 500 puede incluir un delineador de proyectos 204, un delineador de escenas 208 y una ventana gráfica 212. Además, la interfaz de usuario 500 puede incluir un editor de secuencia 214.
Tal como se describe con respecto a las figuras 2 a 4, la interfaz de usuario 500 puede utilizarse para crear y animar escenas, en las que se pueden incluir instancias de activos multimedia. Una vez se ha creado y animado una escena, un operador puede crear una o más secuencias, por ejemplo, mediante la utilización del delineador de proyectos 204. Debe entenderse que no se requiere una modificación explícita de atributos de instancias para generar una animación. Por el contrario, resulta suficiente una única escena estática para habilitar el procesamiento del contenido multimedia. En cuanto el operador selecciona una secuencia, puede abrirse el editor de secuencias 204 y puede mostrarse la línea temporal constituida de pistas de vídeo y audio, en las que el operador puede arrastrar y soltar escenas y montarlas.
Una operación principal en el procedimiento podría ser introducir la escena en una pista de vídeo o audio dada en la línea temporal. La duración de una toma puede obtenerse a partir de la duración de la animación de una escena. Puede recortarse una toma o clip hasta una duración particular deseada. Para cada clip, podría seleccionarse una cámara que debería utilizarse para renderizar la secuencia en el caso de que haya más de una cámara. Las tomas o clips que constituyen una secuencia pueden ser una combinación de metraje, tal como imágenes estáticas, archivos de película o secuencias de imágenes, tablillas con texto y gráficos renderizados, y escenas generadas por ordenador o con gráficos generados por ordenador (CG, por sus siglas en inglés). Los clips de audio pueden tratarse de la misma manera que el contenido gráfico. En el caso de que un archivo de película contenga audio, la interfaz de usuario 500 puede incluir elementos para controlar la visualización, reproducción yplaybackdel audio respectivo.
Además, en un caso de uso, pueden clasificarse uno o más clips o tomas de una secuencia individualmente o todos juntos simultáneamente. Puede aplicarse una longitud focal a cada clip o toma que forma la secuencia, o puede aplicarse un grado global a toda la secuencia. Puede aplicarse cualquier técnica postprocesamiento de filtrado o procesamiento de imágenes diferente para ajustar la secuencia final.
En cualquier punto del tiempo un operador puede revisar las secuencias o cortes mediante la reproducción de todos los clips o tomas o una selección de clips o tomas en el orden en que se han montado en la línea temporal 216 del editor de secuencias.
La fig. 6 muestra otra interfaz gráfica de usuario según una realización de la presente divulgación. La interfaz de usuario 600 puede mostrarse en una etapa final del enfoque de procesamiento del contenido multimedia según una o más realizaciones de la presente divulgación. Por ejemplo, la interfaz de usuario 600 puede mostrarse sobre las interfaces 200, 400 o 500, tal como se ha comentado en referencia a las figs. 2, 4 y 5, respectivamente.
La interfaz de usuario 600 puede incluir un diálogo de renderización por lotes para renderizar las secuencias a un archivo de película o secuencias de imágenes y similares. Tal como se muestra en la interfaz de usuario 600, la secuencia creada, por ejemplo, utilizando la interfaz de usuario 500 de la fig. 5, puede renderizarse en forma de un archivo de película con audio o una secuencia de imágenes en cualquier formato adecuado, que puede ser seleccionado por un operador, tal como OpenEXR, varios JPEG y similares. Antes de iniciar el procedimiento de renderización, el operador puede decidir renderizar imágenes con o sin grado y con o sin mapeador de tonos posiblemente configurados en una cámara, y similares, en cualquier combinación.
En un caso de uso preferido, el entorno multimedia integrado puede permitir a un operador mirar secuencias en RV con el fin de revisar, proyectar o evaluar el contenido multimedia final. Por ejemplo, el operador puede utilizar unas gafas de RV de usuario o cualesquiera otros dispositivos de RV o de realidad aumentada (RA) adecuados disponibles comercialmente. El contenido del contenido multimedia final, tal como una película o contenido de RV, puede exportarse a un archivo que puede leerse en un reproductor de RV (no mostrado) para proporcionar el contenido multimedia en RV en tiempo real. Adicionalmente o como alternativa, la secuencia finalmente renderizada puede ser contenido multimedia o de película de RV y publicarse a través de internet utilizando un sistema integrado de publicación. Por ejemplo, el contenido puede publicarse en sitios para vídeos en internet existentes o a través de canales de distribución específicos.
El flujo de trabajo descrito en una o más realizaciones, ejemplos o casos de uso de la presente divulgación permite un flujo de trabajo de procesamiento multimedia en tiempo real, tal como un flujo de trabajo de películas en tiempo real. Las tareas pueden integrarse dentro de un único entorno multimedia integrado, que puede ser una única herramienta o una aplicación de software. La combinación ventajosa de una secuencia de operaciones con la referencia, arquetipo y/o mecanismo de escena/toma descritos en una única aplicación o herramienta proporciona un procesamiento y creación de contenido multimedia integrados rápidos y eficientes.

Claims (11)

  1. REIVINDICACIONES
    i.Método para el procesamiento de contenido multimedia en un entorno multimedia (102), que comprende:
    proporcionar una pluralidad de activos multimedia, en donde cada activo multimedia presenta una pluralidad de atributos y representa una plantilla maestra,
    instanciar al menos un activo multimedia de la pluralidad de activos multimedia, generando con ello una o más instancias de los respectivos activos multimedia,
    en el que cada instancia hereda la pluralidad de atributos del respectivo activo multimedia, propagar una modificación de un atributo de un activo multimedia a todas las instancias del activo multimedia, incluyendo determinar para cada instancia del activo multimedia si el atributo correspondiente ha sido modificado localmente en la instancia del activo multimedia, y únicamente si el atributo correspondiente en la instancia del activo multimedia no ha sido modificado localmente en la instancia del activo multimedia, sobrescribir un atributo correspondiente en la instancia del activo multimedia, y proporcionar una indicación de la sobreescritura del atributo correspondiente de la instancia del activo multimedia, en el que la indicación es una indicación gráfica proporcionada en una interfaz gráfica de usuario para informar a un operador sobre una modificación respectiva de atributos en instancias respectivas del activo multimedia,
    crear al menos una escena e incluir en la al menos una escena la al menos una instancia de los activos multimedia respectivos,
    crear al menos una toma mediante animación, en la toma, de atributos de al menos una instancia en la al menos una escena,
    crear una secuencia que incluye la al menos una toma,
    renderizar la secuencia, y
    crear una escena adicional y referenciar una escena de la al menos una escena en la escena adicional, propagar la modificación de un atributo de una instancia de un activo multimedia en la escena referenciada al atributo correspondiente de una instancia correspondiente en la escena adicional,
    en el que dicha propagación de la modificación del atributo de la instancia del activo multimedia incluye determinar, para cada instancia correspondiente del activo multimedia en la escena adicional, si el atributo correspondiente de la instancia correspondiente ha sido modificado localmente en la escena adicional, y únicamente si el atributo correspondiente de la instancia correspondiente en la escena adicional no ha sido modificado localmente, sobrescribir el atributo correspondiente de la instancia correspondiente en la escena adicional con el atributo modificado de la instancia del activo multimedia en la escena referenciada y
    proporcionar una indicación de la sobreescritura del atributo correspondiente de la instancia correspondiente en la escena adicional, en el que la indicación es una indicación gráfica mostrada en la interfaz gráfica de usuario,
    en el que una indicación de sobreescritura de un atributo de una instancia de un activo multimedia que representa la plantilla maestra del activo multimedia es distinguible de una indicación de sobreescritura del atributo correspondiente de la instancia correspondiente del activo multimedia en una escena referenciada.
  2. 2. Método según la reivindicación 1, en el que los atributos de cada activo multimedia definen una apariencia del activo multimedia y/o un comportamiento del activo multimedia.
  3. 3. Método según alguna de las reivindicaciones anteriores, en el que los atributos de instancias se animan mediante la utilización de datos de animación.
  4. 4. Método según alguna de las reivindicaciones anteriores, que comprende además recibir datos de entrada, en el que los datos de animación se basan en los datos de entrada recibidos y los datos de entrada son datos de seguimiento en directo recibidos de un sistema conectado de seguimiento, y grabar los datos de animación derivados de los datos de seguimiento en directo y utilizar los datos de animación grabados para la animación a fin de crear la al menos una toma.
  5. 5. Método según alguna de las reivindicaciones anteriores, que comprende además combinar al menos una parte de primeros datos de animación dirigidos a al menos una instancia de un primer activo multimedia en la al menos una escena con al menos una parte de segundos datos de animación dirigidos a al menos una instancia de un segundo activo multimedia en la al menos una escena y utilizar los datos de animación combinados para crear una toma adicional.
  6. 6. Método según la reivindicación 4 o 5, que comprende, además, generar una previsualización de la animación basada en los datos de seguimiento en directo.
  7. 7. Método según alguna de las reivindicaciones anteriores, en el que se crea una pluralidad de tomas y la secuencia incluye la pluralidad de tomas que se montan de acuerdo con una línea temporal (216), y/o en el que dicha renderización de la secuencia comprende aplicar uno o más filtros a la secuencia.
  8. 8. Método según alguna de las reivindicaciones anteriores, que comprende, además, publicar la secuencia renderizada a través de una plataforma de publicación.
  9. 9. Método según alguna de las reivindicaciones anteriores, en el que los activos multimedia incluyen uno o más de los siguientes: objetos, personajes, partículas, cámaras, luces y audio, y/o en el que la secuencia renderizada es contenido de RV.
  10. 10. Dispositivo informático, que comprende:
    una memoria que almacena una pluralidad de activos multimedia e instrucciones ejecutables por ordenador,
    un procesador que proporciona un canal de procesamiento para el procesamiento de contenido multimedia en un entorno multimedia (102), y
    una pantalla,
    en el que las instrucciones, al ser ejecutadas por el procesador, configuran el dispositivo informático para llevar a cabo un método según alguna de las reivindicaciones anteriores, y en la que la pantalla está configurada para mostrar la secuencia renderizada.
  11. 11. Sistema para el procesamiento de contenido multimedia, que comprende:
    al menos un dispositivo informático según la reivindicación 10,
    una red, y
    al menos un sistema de seguimiento acoplado con al menos un dispositivo informático a través de la red, en el que el sistema de seguimiento proporciona datos de animación a al menos un dispositivo informático.
ES17000718T 2016-04-26 2017-04-26 Canal integrado de procesamiento multimedia Active ES2962609T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP16167160 2016-04-26

Publications (1)

Publication Number Publication Date
ES2962609T3 true ES2962609T3 (es) 2024-03-20

Family

ID=55910763

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17000718T Active ES2962609T3 (es) 2016-04-26 2017-04-26 Canal integrado de procesamiento multimedia

Country Status (4)

Country Link
EP (2) EP3246921B1 (es)
DK (1) DK3246921T3 (es)
ES (1) ES2962609T3 (es)
HU (1) HUE063897T2 (es)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10990505B2 (en) 2019-04-19 2021-04-27 Dreamworks Animation Llc Stipulated overrides with violation resolution
US11393180B2 (en) 2020-01-31 2022-07-19 Unity Technologies Sf Applying non-destructive edits to nested instances for efficient rendering
CN116309981A (zh) * 2023-04-06 2023-06-23 北京优酷科技有限公司 动画处理方法以及计算设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010035873A1 (en) * 2000-04-20 2001-11-01 David Easter Method and system for deferred assignment of attributes in a computer graphics scene
US8253728B1 (en) * 2008-02-25 2012-08-28 Lucasfilm Entertainment Company Ltd. Reconstituting 3D scenes for retakes

Also Published As

Publication number Publication date
HUE063897T2 (hu) 2024-02-28
EP3246921B1 (en) 2023-08-09
EP4276828A1 (en) 2023-11-15
EP3246921A3 (en) 2018-02-14
DK3246921T3 (da) 2023-11-13
EP3246921A2 (en) 2017-11-22

Similar Documents

Publication Publication Date Title
JP4698385B2 (ja) 位置に応じて変化する、タイトル、トランジション、および/またはエフェクトなどの特殊効果
US9381429B2 (en) Compositing multiple scene shots into a video game clip
US9436691B2 (en) Hierarchical multimedia program composition
US8161452B2 (en) Software cinema
US8576228B2 (en) Composite transition nodes for use in 3D data generation
US10319409B2 (en) System and method for generating videos
US20150088977A1 (en) Web-based media content management
EP2174299B1 (en) Method and system for producing a sequence of views
US8610713B1 (en) Reconstituting 3D scenes for retakes
ES2962609T3 (es) Canal integrado de procesamiento multimedia
US8674998B1 (en) Snapshot keyframing
JP2022554232A (ja) 没入型コンテンツから2d映画を作成するシステムおよび方法
US8363055B1 (en) Multiple time scales in computer graphics
US9396574B2 (en) Choreography of animated crowds
US20120021827A1 (en) Multi-dimensional video game world data recorder
US20150178971A1 (en) Broadcast-quality graphics creation and playout
Ichikari et al. Mixed reality pre-visualization and camera-work authoring in filmmaking
US11263257B2 (en) Techniques for automatically exposing 3D production assets to an editorial workstation in a content creation pipeline
Greuter et al. The immersive archive
Mikami et al. Diorama engine-a 3D directing tool for 3D computer animation production
Abadia et al. Assisted animated production creation and programme generation
Jo et al. CollageVis: Rapid Previsualization Tool for Indie Filmmaking using Video Collages
Beales et al. Automated 3d pre-vis for modern production
Evans et al. Designing a multiplatform pipeline for 3D scenes
Sinopoli Designing Accessible Pipelines for Visual Effects and Virtual Reality