ITRM20110469A1 - Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente - Google Patents

Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente Download PDF

Info

Publication number
ITRM20110469A1
ITRM20110469A1 IT000469A ITRM20110469A ITRM20110469A1 IT RM20110469 A1 ITRM20110469 A1 IT RM20110469A1 IT 000469 A IT000469 A IT 000469A IT RM20110469 A ITRM20110469 A IT RM20110469A IT RM20110469 A1 ITRM20110469 A1 IT RM20110469A1
Authority
IT
Italy
Prior art keywords
content
basic
subsystem
user
additional
Prior art date
Application number
IT000469A
Other languages
English (en)
Inventor
Giorgio Morini
Claudio Vaccarella
Original Assignee
Hyper Tv S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyper Tv S R L filed Critical Hyper Tv S R L
Priority to IT000469A priority Critical patent/ITRM20110469A1/it
Priority to ES12773401.0T priority patent/ES2650722T3/es
Priority to EP12773401.0A priority patent/EP2754112B1/en
Priority to US14/343,707 priority patent/US20140331113A1/en
Priority to PCT/IT2012/000272 priority patent/WO2013035121A1/en
Publication of ITRM20110469A1 publication Critical patent/ITRM20110469A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Stored Programmes (AREA)

Description

“Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utenteâ€
DESCRIZIONE
La presente descrizione si riferisce ad un sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente.
E’ sentita l’esigenza di produrre dei contenuti multimediali complessi comprendenti un contenuto di base, quale ad esempio un video, e comprendenti uno o più contenuti aggiuntivi, o eventi associati, ad esempio semanticamente, al contenuto di base. Tali contenuti aggiuntivi sono ad esempio veicolati tramite dei programmi applicativi che consentono ad un utente di avere una certa possibilità di interazione contestualmente alla fruizione del contenuto di base, ad esempio per consentire all’utente di esprimere una preferenza o per fruire di informazioni aggiuntive semanticamente correlate al contenuto di base. Ai fini della presente descrizione l’insieme del contenuto di base e degli uno o più contenuti aggiuntivi sarà definito come contenuto complesso. La fruizione da parte di un utente dei contenuti aggiuntivi contestualmente alla fruizione del contenuto di base da parte di un utente à ̈ definibile analogamente come una esperienza multimediale complessa.
Attualmente le possibilità di produrre dei contenuti multimediali complessi sono abbastanza limitate, sia in relazione alla possibilità di stabilire una corretta temporizzazione dei contenuti aggiuntivi rispetto al contenuto di base in fase di editing sia in relazione alle modalità pratiche di fruizione dell’esperienza multimediale complessa da parte di un utente.
Lo scopo della presente descrizione à ̈ quello di mettere a disposizione un sistema ed un metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente.
Tale scopo viene conseguito mediante un sistema come definito in generale nella rivendicazione 1 e mediante un metodo come definito nella rivendicazione 10. Forme di realizzazione preferite e vantaggiose del suddetto sistema e del suddetto metodo sono definite nelle annesse rivendicazioni dipendenti.
L’invenzione sarà meglio compresa dalla seguente descrizione dettagliata di sue particolari forme di esecuzione fatta a titolo esemplificativo e, pertanto, in nessun modo limitativo, in riferimento all’allegata figura 1 che rappresenta uno schema funzionale a blocchi generico di un sistema per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente.
Con riferimento alla annessa figura 1 con 100 si à ̈ globalmente indicato un sistema per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione da parte un utente di tali contenuti multimediali complessi. I contenuti multimediali complessi comprendono un contenuto di base ed almeno un contenuto o evento aggiuntivo associato e sincronizzato rispetto al contenuto di base.
Il sistema 100 comprende un sottosistema di editing 101, comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software. La piattaforma software comprende un editor di eventi configurato per consentire ad un autore di produrre un contenuto multimediale complesso in cui il contenuto aggiuntivo sia specificamente sincronizzato rispetto ad un effettiva evoluzione temporale del contenuto di base, il contenuto aggiuntivo essendo destinato nella fruizione del contenuto di base da parte dell’utente a rappresentare un evento associato e sincronizzato al contenuto di base. In accordo ad una forma di realizzazione tale evento à ̈ semanticamente e/o logicamente correlato al contenuto di base.
In accordo ad una forma di realizzazione, il sottosistema di editing 101 à ̈ configurato per memorizzare i contenuti multimediali complessi in strutture dati adatte a memorizzare le informazioni relative all’associazione fra il contenuto di base ed il contenuto aggiuntivo, incluse le informazioni di sincronizzazione del contenuto aggiuntivo rispetto all’evoluzione temporale del contenuto di base.
In accordo ad una forma di realizzazione, la piattaforma software del sottosistema di editing 101 à ̈ tale per cui l’autore possa interagire con il sottosistema di editing tramite un browser.
Il sistema 100 comprende inoltre, un sottosistema di back-end 102 comprendente un database 103 adatto a memorizzare il suddetto contenuto multimediale complesso prodotto dall’autore tramite il sottosistema di editing 101 per rendere disponibile il contenuto aggiuntivo ad un utente.
Inoltre, il sistema 100 comprende un sottosistema di front-end 104 comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software del sottosistema di front-end 104 comprendendo un attuatore di eventi adatto ad interagire con il sottosistema di back-end 102 per consentire all’utente di fruire del contenuto aggiuntivo contestualmente alla fruizione del contenuto di base. Tale fruizione avviene tramite un opportuno terminale utente, o dispositivo client, 105, 115.
Con riferimento alla figura 1, per quanto concerne il dispositivo client 105, 115 sono possibili due scenari alternativi o complementari fra loro.
In un primo scenario, indicato con 1, il dispositivo client 105 comprende una interfaccia utente 106, ad esempio una interfaccia grafica, per la fruizione simultanea del contenuto di base e del contenuto aggiuntivo e dunque dell’intero contenuto multimediale complesso. Ad esempio, nel caso in cui il contenuto di base sia un video o una immagine ed il contenuto aggiuntivo sia un ulteriore video o una immagine, l’interfaccia grafica comune 106 del sotto-sistema di front-end comprende due finestre 107 e 108 previste rispettivamente per la fruizione del contenuto di base e del contenuto aggiuntivo. Il dispositivo client 105 ad esempio include in questo caso un browser web collegabile via internet al sotto-sistema di front-end 104 ed adatto a caricare una pagina web da visualizzare sull’interfaccia grafica 106 comprendente almeno un player capace di riprodurre il contenuto di base ed il contenuto aggiuntivo nelle rispettive finestre 107, 108, secondo la temporizzazione prevista dall’autore in fase di editing ed orchestrata presso il sottosistema di front-end 104 dall’attuatore di eventi. Si tenga presente che il contenuto aggiuntivo può essere anche veicolato tramite una web application, ad esempio una applicazione interattiva, che sfrutta la finestra 108 e/o anche una sottoporzione della finestra 107 dedicata alla fruizione del contenuto di base.
In un secondo scenario, indicato con 2, il dispositivo utente 115 si concreta in un terminale quale ad esempio uno smartphone o un tablet-pc, operativamente collegabile al sottosistema di front-end 104 e destinato alla fruizione del contenuto aggiuntivo, essendo il contenuto di base ad esempio veicolato tramite broadcasting e per mezzo di una rete di diffusione 110 ad un terminale standard 120, quale un terminale televisivo. In questo caso, nell’esempio in cui il contenuto di base sia un contenuto video e/o audio, à ̈ possibile prevedere che il sottosistema di editing 101 associ al contenuto di base dei fingerprint o dei watermark per il riconoscimento da parte del sottosistema di front-end 104 del contenuto di base e la sincronizzazione del contenuto aggiuntivo destinato ad essere fruito tramite il dispositivo client 115. In accordo ad una forma di realizzazione, il sottosistema di editing 101 ed il sottosistema di front end 104 consentono di gestire entrambi gli scenari, essendo appunto configurati per produrre e rendere disponibili contenuti complessi fruibili in accordo ai sopra indicati scenari 1 e 2.
In accordo ad una forma di realizzazione vantaggiosa, il contenuto di base à ̈ riproducibile tramite un player e la piattaforma software del sottosistema di editing 101 comprende una interfaccia grafica munita di un player adatto a riprodurre tale contenuto di base. Tale piattaforma software del sottosistema di editing 101 consente ad un autore di:
- avviare la riproduzione del contenuto di base tramite il suddetto player;
- mettere in uno stato di pausa detta riproduzione per stabilire un istante di tempo rispetto al quale l’autore desidera sincronizzare fra loro il contenuto di base ed il contenuto aggiuntivo per la produzione del contenuto complesso;
- selezionare il contenuto aggiuntivo da associare al contenuto di base mentre detta riproduzione à ̈ nello stato di pausa ed associare detto contenuto aggiuntivo selezionato a detto contenuto di base formando in tal modo un contenuto complesso.
In accordo ad una forma di realizzazione, il contenuto di base à ̈ un video visualizzabile tramite un player, ed il sottosistema di front-end 104 cooperando con il sottosistema di back-end 102 à ̈ tale da fornire al dispositivo client 105, 115 una pagina web con un player per la riproduzione di detto video, detto player fornito comprendendo l’attuatore di eventi. E’ inoltre possibile prevedere che la riproduzione del contenuto aggiuntivo presso il dispositivo client 105, 115 sia tale da porre in uno stato di pausa la riproduzione del contenuto di base. Inoltre, à ̈ possibile prevedere che il contenuto aggiuntivo sia fornito all’utente tramite un programma applicativo che richiede un input dall’utente ed in cui la pagina web à ̈ configurata in modo tale per cui la riproduzione del contenuto di base può riprendere solo dopo la ricezione di detto input utente da parte di detto programma applicativo.
Si osservi che il sopra descritto sistema 100, ad esempio basato sul web, permette di creare delle “User Experiences†(UX) complesse, o esperienze multimediali complesse, a partire da dei contenuti multimediali autonomi come, ad esempio, video, audio file, musica, stream audio o video, semplici pagine web, immagini, testi, suoni.
Le informazioni sono composte secondo precise cadenze temporali, potendo attivare anche delle applicazioni che possano permettere ad un utilizzatore di fruire della User Experience. Gli attori rilevanti del sistema 100 sono:
- l’autore, ovvero colui che utilizza il sistema per la creazione della User Experience;
- l’utente, ovvero colui che fruisce o che partecipa alla UX.
L’attuatore di eventi entra in gioco nel sottosistema di front-end 104 e dunque anche nel dispositivo client 105, 115 per consentire la fruizione della UX da parte dell’utente per attivare, secondo la cadenza temporale stabilita nella fase di editing, le varie componenti che fanno parte della UX.
Nel sistema 100, i contenuti complessi prodotti tramite il sottosistema di editing 101 vengono memorizzati nel database 103 che fa parte del sottosistema di back-end 102. Questo sottosistema 102 rende persistenti tutti i contenuti complessi generati dall’autore ed in accordo ad una forma di realizzazione anche le interazioni ricevute dagli utenti durante la fruizione della UX.
L’attuatore di eventi fa parte di un sottosistema di front-end 104 e viene caricato nei dispositivo client 105, 115, ad esempio in un browser, e permette agli utenti la fruizione, ad esempio via web, della UX ed eventualmente permette anche di far interagire gli utenti con la UX, sia utilizzando il browser (scenario 1), sia utilizzando dei dispositivi multicanale (scenario 2) che la tecnologia di oggi mette a disposizione (smartphone, tablet-pc). Anche in quest’ultimo caso il sottosistema di front-end 104 comprenderà una piattaforma software idonea all’erogazione della UX, ed in particolare del contenuto aggiuntivo, ed alla raccolta delle interazioni degli utenti per la loro eventuale memorizzazione nel sottosistema di back-end 102.
Il sottosistema di editing 101 una piattaforma che permette ad esempio all’autore di disegnare le pagine web che forniscono la UX con i relativi contenuti ed eventi. Tutta questa collezione di informazioni rappresenta il cosiddetto contenuto complesso. La piattaforma 101 prevede la possibilità di memorizzare, utilizzando opportune strutture dati, i contenuti complessi nel database 103.
L'editor di eventi del sottosistema di editing 102 viene utilizzato dall’autore per la creazione di una serie di eventi temporizzati da associare ai contenuti multimediali che vuole combinare. In questo caso l’autore può disegnare lo svolgimento temporale della UX.
La tipologia degli eventi a disposizione dell'autore della UX in fase di editing tramite il sottosistema 101 Ã ̈ la seguente:
- attivazione di contenuti aggiuntivi di arricchimento del contenuto multimediale di partenza fruibili nello stesso player del contenuto di partenza o in un player secondario (immagini, musica, suoni, testi esplicativi, altri video);
- attivazione di web application di arricchimento del contenuto di base che sono esterne al player del contenuto di base (mappe, web-frame con contenuti testo e immagini, slide-show, gallerie di immagini);
- attivazione di web application di interazione con la UX (quiz, sondaggi, message board, chat) sulla pagina web;
- attivazione di applicazioni di interazione con la UX su device portatili (pc tablet,smartphone) durante degli eventi broadcast o live (TV, radio, concerti, raduni) oppure durante la riproduzione di contenuti multimediali (DVD, mp3, mp4).
Il sottosistema di front-end 104 consente di erogare la UX ad un utente. Per quanto riguarda la componente web, nel caso dello scenario 1, in accordo ad una forma di realizzazione tale sottosistema consente di generare nel dispositivo client 105 delle pagine web che vengono visualizzate in un browser e che contengono al loro interno l’attuatore di eventi. Quindi in questo caso l’utente ha nel suo browser tutti gli elementi che consentono la riproduzione della UX.
In accordo ad una forma di realizzazione, quando un utente vuole fruire di una certa UX, il sistema di frontend 104 carica dal sottosistema di back-end 102 un contenuto complesso, genera le pagine, ad esempio web, e le invia al dispositivo client 105 e dunque all’utente insieme all’attuatore di eventi. L’attuatore di eventi viene caricato nel suo browser ed una volta iniziata la riproduzione della UX esso estrae dal contenuto complesso gli eventi (ad esempio in formato XML) ed attiva dinamicamente le varie componenti multimediali secondo le cadenze stabilite dall’autore in fase di editing. Inoltre, se previsto nella UX, l’attuatore di eventi attiva anche delle web application presenti nella pagina che consentono all’utente di interagire durante la fruizione della UX.
In accordo ad una forma di realizzazione, nel caso di UX associate ad eventi broadcast (trasmissioni televisive, radio) oppure live (come ad esempio dei concerti, o dei comizi) l’attuatore di eventi attiva la componente server (servlet) di applicazioni che girano su dei dispositivi portatili, come ad esempio uno smartphone 115. Queste applicazioni possono essere sviluppate appositamente per la UX (si pensi ad esempio ad un reality famoso) e consentono di inviare delle scelte/preferenze espresse dall’utente che assiste all’evento broadcast. Attivando la componente server à ̈ possibile l’invio delle informazioni in specifici istanti di tempo definiti nell’evento dall’autore. Queste informazioni possono essere collezionate dalla servlet e rese persistenti nel database 103 del sottosistema di back-end 102 dove vengono associate al contenuto complesso. Si osservi che à ̈ dunque possibile arricchire la UX che vive un utente sincronizzandola con le interazioni di altri utenti. Inoltre, à ̈ eventualmente possibile condizionare la UX (se previsto dall’autore in fase di editing) con il risultato della interazione, effettuata sia tramite un browser sia tramite dispositivi portatili di comunicazione (ad esempio smartphones).
In accordo ad una forma di realizzazione, il sottosistema di editing 101 à ̈ basato sul concetto del "hypercontent". L'hypercontent à ̈ in pratica una struttura dati che permette di comporre e memorizzare un contenuto complesso vale a dire un contenuto di base insieme a tutti gli eventi (cioà ̈ contenuti aggiuntivi) che vengono associati dall'autore allo svolgimento temporale del contenuto di base. Ogni hypercontent contiene un contenuto complesso.
In accordo ad una forma di realizzazione, il sottosistema di editing 101 consente all'autore la creazione di "container" che altro non sono che dei contenitori di "hypercontent". Per esempio, un autore potrebbe creare un container per un certo argomento tematico. In questo container, che può essere considerato una sorta canale, egli memorizza gli hypercontent relativi allo stesso argomento. Sono dunque previste delle strutture dati che permettono la memorizzazione e l'organizzazione degli hypercontent in canali tematici. In aggiunta a ciò, à ̈ possibile prevedere anche altre strutture dati chiamate "playlist". L'autore può creare una o più playlist. Una playlist rappresenta la sequenza con cui i contenuti complessi possono essere eseguiti, uno dopo l'altro. Quindi l'autore ha a disposizione delle librerie di contenuti complessi (container) già pronti da cui può prelevare una serie di hypercontent per organizzarli in una playlist. In questo caso la playlist sarà eseguita da sottosistema di front-end 105, 115 durante la fruizione da parte degli utenti.
Ad esempio, la creazione di un contenuto complesso, viene fatta dall'autore collegandosi al sottosistema di editing 101. Tramite una interfaccia di gestione l’autore crea un'istanza della strutture che dovrà contenere l'hypercontent e gli assegna un nome e altre caratteristiche. Quindi l’autore può selezionare da una libreria di contenuti multimediali il contenuto di base che diventerà poi il contenuto complesso. Una volta fatto questo, tramite una altra interfaccia l’autore può ad esempio attivare l’associazione degli eventi (cioà ̈ dei contenuti aggiuntivi) al contenuto di base. Nel caso in cui il contenuto di base sia un file video, l'interfaccia di creazione eventi propone ad esempio il video in un player. Mettendo in pausa il player al un certo istante di tempo, il sottosistema propone la creazione di un evento per quell'istante. L'autore può inserire tutte le informazioni che caratterizzano l'evento che sta creando, compreso anche il timing. E’ chiaro che le informazioni che vengono inserite dipendono dal tipo di evento che si vuole creare. Ad esempio, se al secondo 10 del video, l'autore vuole che, in sovraimpressione in una certa porzione del video, appaia una scritta per i successivi 5 secondi e che questa scritta sia cliccabile ed una volta cliccata faccia apparire delle informazioni in un altra area della pagina egli può inserire le seguenti informazioni:
• tempo dell'evento;
• dimensione e posizione dell'area cliccabile;
• testo e caratteristiche del testo da inserire nell'area;
• durata dell'area cliccabile;
• tipo di web application associata all'area cliccabile;
• istanza della web application;
• URL da visualizzare da parte della web application. Come altro esempio à ̈ possibile prevedere un altro evento che, ad un certo istante, faccia comparire esternamente al player del contenuto di base una web application di tipo sondaggio (contenuto o evento aggiuntivo) ed il video (contenuto di base) venga messo in pausa aspettando che l’utente risponda al sondaggio. Tramite l'interfaccia di creazione degli eventi, l'autore mette in pausa il video all'istante in cui vuole far apparire il sondaggio. Tramite l’interfaccia di gestione l’autore decide che l'evento che vuole creare à ̈ di tipo sondaggio. Inserisce il nome dell'istanza dell'applicazione sondaggio (già preparata in precedenza). Inoltre, l’autore tramite il sottosistema 101 può impostare che il file video si deve mettere in pausa, per dar modo all’utente di rispondere/interagire attivamente.
Come altro tipo di esempio, relativo ad una UX più' complessa, questa può essere fruita tramite una pagina web nella quale vengono proposti dei contenuti (multimediali o no) che dipendono dalle interazioni che degli utenti remoti possono fare con delle applicazioni per smartphone 115. In questo caso gli eventi dipendono da quando l'interazione può avere luogo e dal risultato dell'interazione. Per esempio si può prevedere di sviluppare una applicazione smartphone per una trasmissione televisiva di grande successo (come ad esempio un reality). Questa applicazione permette l'interazione di un utente televisivo con una user experience in certi momenti della trasmissione. Questi momenti vengono definiti dagli eventi stabiliti dall'autore in certi istanti temporali assoluti. Il collegamento tra l'applicazione smartphone e il sottosistema di front-end 104 viene assicurato da dei watermark inseriti nelle tracce audio della trasmissione. Quando il watermark viene rilevato dalla applicazione, questa si mette in collegamento con il sottosistema di front-end 104. Conseguentemente, quando previsto dall’autore, l'applicazione del dispositivo client 115 riceve dal sottosistema di front-end 104 tutte le informazioni per consentire ad un utente di interagire. Dopo che gli utenti hanno interagito, il sottosistema di back-end 102 elabora le interazioni e fornisce il risultato al sottosistema di front-end 104. Ciò può ad esempio avvenire per produrre nel dispositivo client 115 un evento relativo ai risultati complessivi delle diverse interazioni ed ad esempio in questo caso l'applicazione smartphone 115 riceve dal sottosistema di front-end 104 il risultato da proporre agli utenti.
In tutti questi casi, gli eventi possono essere delle informazioni in XML che sono memorizzate nelle strutture dati che contengono il contenuto complesso. Il file video ad esempio non viene modificato, ma ci sono delle informazioni aggiuntive che sono a complemento.
In accordo ad un esempio, il flusso temporale può essere rappresentato in questo modo:
1) l'autore effettua l'upload di uno o più' video (contenuto di base);
2) l'autore effettua l'upload di una o più' immagini da associare al video,
3) l'autore prepara una serie di contenuti aggiuntivi da associare al video;
4) l'autore inizia la fase di definizione delle correlazioni tra il video principale ed i contenuti aggiuntivi associati;
5) tramite uno specifica interfaccia web l’autore attiva il video player e scorre il video fino a trovare un punto di legame (correlazione con altro contenuto).
6) l’autore a questo punto mette in pausa il video e definisce cosa deve accadere (evento) in concomitanza con la visualizzazione di quella specifica frame del video.
7) una volta completata la fase 6 l'autore compone la pagina e gli associa lo stile grafico.
Il file video risultante può essere modificato secondo i due possibili seguenti casi.
In un primo caso (scenario 1), previsto per la fruizione tramite web, nello stream video vengono inseriti i metadati in corrispondenza ai punti di sincronizzazione. I metadati contengono informazioni sull'evento aggiuntivo associato. Al browser dell'utente viene inoltre inviato un file descrittore (XML) con ulteriori informazioni.
In un secondo caso (scenario 2) i metadati sono inseriti nel feed video del broadcaster attraverso un apparato Hw/Sw di per se noto. Il payload dei metadati iniettati include le informazioni per innescare l'invio dei contenuti aggiuntivi da fruire tramite il terminale 115.
Gli eventi inseribili nella suddetta fase 6 possono essere di diverso tipo, ad esempio:
a) eventi per la fruizione da parte di un utente di un contenuto aggiuntivo (immagine/video/audio/etc);
b) eventi per l’esecuzione di una applicazione/widget (esempio poll, vote, map, etc.);
c) eventi che consentono lo scambio di informazioni con le persone di un social network su web.
Nel caso di contenuti di base video, il sottosistema di front-end 104 può essere configurato per consentire al dispositivo client 105, 115 di visualizzare delle pagine che contengono un video player in grado di poter leggere l'intero contenuto complesso. Questo player può essere ad esempio scritto nel linguaggio flash e contiene il componente che può denominato attuatore di eventi. Questo componente può essere configurato ad esempio per leggere un file XML contenente gli eventi da attuare al fine di tradurlo in azioni, che possono essere interne al player stesso e/o esterne al player. Quelle esterne possono interfacciarsi con delle web application già presenti nella pagina. Ad ogni evento può essere associato nel suddetto file XML il tempo in cui deve essere eseguito. Questo tempo può essere relativo al timing del video (contenuto base), oppure può essere un tempo assoluto. Quindi, quando un browser di un dispositivo client 105, 115 si collega al sottosistema di front-end 104 il browser può caricare una pagina che include il player, il quale a sua volta include l’attuatore di eventi. In pratica, tutto può essere caricato dal browser durante il caricamento della pagina.
In accordo ad una forma di realizzazione, il sistema 100 può essere configurato in modo che l’interazione dell’utente con il sistema 100 avvenga nella seguente modalità:
1. l'utente si connette ad internet tramite dispositivo client 105, 115 e tramite il browser si reca all'indirizzo web di uno specifico portale;
2. tramite il browser viene visualizzata una home page nel quale à ̈ presente un video (contenuto base);
3. L’utente esegue il play del video (à ̈ prevista anche la possibilità dell’autoplay con il quale il video viene avviato appena la pagina viene caricata);
4. L’attuatore di eventi individua nei dati video ricevuti dei metadati che consentono al browser di scaricare una applicazione dal sottosistema di frontend 104 e di eseguire tale applicazione per la fruizione di contenuti aggiuntivi semanticamente connessi al video.
Si ottiene dunque una “augmented experience†nella quale la pagina viene modificata dinamicamente in relazione allo specifico frame del video senza la necessità che l’utente finale selezioni un hyperlink. E’ possibile in estremo che uno degli eventi sia il caricamento di una nuova playlist al termine della visualizzazione del video corrente (contenuto di base).
In questo modo la navigazione diventa dinamica anche se l’utente non effettua nessuna interazione.
Si osservi infine che l’interazione può essere comunque garantita dal fatto che à ̈ possibile, in fase di produzione tramite il sottosistema 101, stabilire che alcuni eventi, oltre a visualizzare contenuti ed applicazioni, possano anche fermare la fruizione del video che verrà riattivata solo a fronte di uno specifica azione da parte dell’utente.
Si osservi che la descrizione sopra effettuata per il sistema 100 corrisponde anche alla descrizione di un metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione da parte un utente di tali contenuti multimediali complessi, i contenuti multimediali complessi comprendendo un contenuto di base ed almeno un contenuto aggiuntivo associato e sincronizzato rispetto al contenuto di base. Il metodo comprende le fasi di: - produrre un contenuto multimediale complesso tramite un sottosistema di editing 101, comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software comprendendo un editor di eventi configurato per consentire ad un autore di produrre un contenuto multimediale complesso in cui il contenuto aggiuntivo sia specificamente sincronizzato rispetto ad un effettiva evoluzione temporale del contenuto di base, il contenuto aggiuntivo essendo destinato nella fruizione del contenuto di base da parte dell’utente a rappresentare un evento associato e sincronizzato al contenuto di base;
- memorizzare in un database (103) di un sottosistema di back-end (102) il suddetto contenuto multimediale complesso prodotto tramite il sottosistema di editing per rendere disponibile detto contenuto aggiuntivo a detto utente;
- rendere disponibile ad un utente tramite un sottosistema di front-end 104 il contenuto aggiuntivo per la fruizione di questo tramite un dispositivo client 105, 115, il sottosistema di front-end comprendendo una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software del sottosistema di front-end 104 comprendendo un attuatore di eventi caricabile nel dispositivo client 105, 115 per consentire a detto utente di fruire del contenuto aggiuntivo contestualmente alla fruizione di detto contenuto di base.
Le caratteristiche particolari del suddetto metodo sono desumibili dalla descrizione già fatta per il sistema 100.
Dalla descrizione appena fatta à ̈ possibile comprendere come un sistema ed un metodo del tipo sopra descritti raggiungano pienamente gli scopi prefissi.
Ovviamente, al sistema ed al metodo sopra descritti un tecnico del ramo, allo scopo di soddisfare esigenze contingenti e specifiche, potrà apportare numerose modifiche e varianti, tutte peraltro contenute nell’ambito di protezione dell’invenzione, quale definito dalle seguenti rivendicazioni.

Claims (11)

  1. RIVENDICAZIONI 1. Sistema (100) per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione da parte un utente di tali contenuti multimediali complessi, i contenuti multimediali complessi comprendendo un contenuto di base ed almeno un contenuto aggiuntivo associato e sincronizzato rispetto al contenuto di base, il sistema (100) comprendendo: - un sottosistema di editing (101), comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software comprendendo un editor di eventi configurato per consentire ad un autore di produrre un contenuto multimediale complesso in cui il contenuto aggiuntivo sia specificamente sincronizzato rispetto ad un effettiva evoluzione temporale del contenuto di base, il contenuto aggiuntivo essendo destinato nella fruizione del contenuto di base da parte dell’utente a rappresentare un evento associato e sincronizzato al contenuto di base; - un sottosistema di back-end (102) comprendente un database (103) adatto a memorizzare il suddetto contenuto multimediale complesso prodotto tramite il sottosistema di editing per rendere disponibile detto contenuto aggiuntivo a detto utente; - un sottosistema di front-end (104) comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software del sottosistema di front-end (104) comprendendo un attuatore di eventi caricabile in un dispositivo client (105, 115) dell’utente per consentire a detto utente di fruire del contenuto aggiuntivo contestualmente alla fruizione di detto contenuto di base.
  2. 2. Sistema (100) secondo la rivendicazione 1, in cui il sottosistema di editing (101) à ̈ configurato per memorizzare i contenuti multimediali complessi in strutture dati adatte a memorizzare le informazioni relative all’associazione fra il contenuto di base ed il contenuto aggiuntivo, incluse le informazioni di sincronizzazione del contenuto aggiuntivo rispetto all’evoluzione temporale del contenuto di base.
  3. 3. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti, in cui il contenuto di base à ̈ riproducibile tramite un player ed in cui la piattaforma software del sottosistema di editing (101) comprende una interfaccia grafica munita di un player adatto a riprodurre tale contenuto di base, in cui la piattaforma software del sottosistema di editing (101) consente ad un autore di: - avviare la riproduzione di detto contenuto di base tramite detto player; - mettere in uno stato di pausa detta riproduzione per stabilire un istante di tempo rispetto al quale l’autore desidera sincronizzare fra loro il contenuto di base ed il contenuto aggiuntivo per la formazione del contenuto complesso; - selezionare il contenuto aggiuntivo da associare al contenuto di base mentre detta riproduzione à ̈ nello stato di pausa ed associare detto contenuto aggiuntivo selezionato a detto contenuto di base formando in tal modo un contenuto complesso.
  4. 4. Sistema (100) secondo una qualsiasi delle rivendicazioni precedenti, in cui detto contenuto di base à ̈ un video visualizzabile tramite un player, ed in cui il sottosistema di front-end (104) à ̈ tale da fornire a detto dispositivo client (105,115) una pagina web con un player per la riproduzione di detto video, detto player fornito al dispositivo client (105, 115) comprendendo detto attuatore di eventi.
  5. 5. Sistema (100) secondo la rivendicazione 4, in cui la riproduzione di detto contenuto aggiuntivo presso detto dispositivo client (105, 115) Ã ̈ tale da porre in uno stato di pausa la riproduzione del contenuto di base.
  6. 6. Sistema (100) secondo la rivendicazione 5, in cui il contenuto aggiuntivo à ̈ fornito tramite un programma applicativo che richiede un input dall’utente ed in cui la pagina web à ̈ configurata in modo tale per cui la riproduzione del contenuto di base può riprendere solo dopo la ricezione di detto input da parte di detto programma applicativo.
  7. 7. Sistema secondo una qualsiasi delle precedenti rivendicazioni, in cui il sottosistema di editing (101) e detto sottosistema di front-end (104) sono configurati in modo tale da poter consentire la fruizione di detto contenuto aggiuntivo: - tramite un dispositivo client (105) adatto ad interfacciarsi con detto sottosistema di front-end (104) anche per la fruizione simultanea di detto contenuto base; e - tramite un ulteriore dispositivo client (115) adatto ad interfacciarsi con detto sotto-sistema di front-end (104) per la fruizione esclusiva del contenuto aggiuntivo, detto sistema di front-end (104) consentendo a detto ulteriore dispositivo client (115) di sincronizzarsi a detto contenuto base, essendo detto contenuto base trasmesso a mezzo di un differente canale ed includendo dei watermark/fingerprint per la suddetta sincronizzazione, detti watermark/fingerprint essendo ricevibili da detto sottosistema di front-end (104) tramite detto ulteriore dispositivo client (115).
  8. 8. Sistema secondo la rivendicazione 4, in cui detto contenuto aggiuntivo à ̈ fornito tramite una web application caricata tramite detta pagina web.
  9. 9. Sistema (100) secondo una qualsiasi delle precedenti rivendicazioni, in cui detta piattaforma software del sottosistema di editing (101) Ã ̈ tale per cui detto autore possa interagire con il sottosistema di editing (101) tramite un browser.
  10. 10. Metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione da parte un utente di tali contenuti multimediali complessi, i contenuti multimediali complessi comprendendo un contenuto di base ed almeno un contenuto aggiuntivo associato e sincronizzato rispetto al contenuto di base, il metodo comprendendo le fasi di: - produrre un contenuto multimediale complesso tramite un sottosistema di editing (101), comprendente una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software comprendendo un editor di eventi configurato per consentire ad un autore di produrre un contenuto multimediale complesso in cui il contenuto aggiuntivo sia specificamente sincronizzato rispetto ad un effettiva evoluzione temporale del contenuto di base, il contenuto aggiuntivo essendo destinato nella fruizione del contenuto di base da parte dell’utente a rappresentare un evento associato e sincronizzato al contenuto di base; - memorizzare in un database (103) di un sottosistema di back-end (102) il suddetto contenuto multimediale complesso prodotto tramite il sottosistema di editing per rendere disponibile detto contenuto aggiuntivo a detto utente; - rendere disponile ad un utente tramite un sottosistema di front-end (104) il contenuto aggiuntivo per la fruizione di questo tramite un dispositivo cliuent (105, 115), il sottosistema di front-end (104) comprendendo una piattaforma software ed un hardware adatto a supportare la piattaforma software, la piattaforma software del sottosistema di front-end (104) comprendendo un attuatore di eventi caricabile in detto dispositivo client (105, 115) per consentire a detto utente di fruire del contenuto aggiuntivo contestualmente alla fruizione di detto contenuto di base.
  11. 11. Prodotto informatico comprendente porzioni di codice caricabili nella memoria di uno o più elaboratori ed adatte ad eseguire un metodo secondo la rivendicazione 10.
IT000469A 2011-09-08 2011-09-08 Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente ITRM20110469A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT000469A ITRM20110469A1 (it) 2011-09-08 2011-09-08 Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente
ES12773401.0T ES2650722T3 (es) 2011-09-08 2012-09-06 Sistema y método para producir contenidos multimedia complejos por parte de un autor y para usar tales contenidos multimedia complejos por parte de un usuario
EP12773401.0A EP2754112B1 (en) 2011-09-08 2012-09-06 System amd method for producing complex multimedia contents by an author and for using such complex multimedia contents by a user
US14/343,707 US20140331113A1 (en) 2011-09-08 2012-09-06 System and method for producing complex multimedia contents by an author and for using such complex multimedia contents by a user
PCT/IT2012/000272 WO2013035121A1 (en) 2011-09-08 2012-09-06 System and method for producing complex multimedia contents by an author and for using such complex multimedia contents by a user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000469A ITRM20110469A1 (it) 2011-09-08 2011-09-08 Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente

Publications (1)

Publication Number Publication Date
ITRM20110469A1 true ITRM20110469A1 (it) 2013-03-09

Family

ID=44899087

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000469A ITRM20110469A1 (it) 2011-09-08 2011-09-08 Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente

Country Status (5)

Country Link
US (1) US20140331113A1 (it)
EP (1) EP2754112B1 (it)
ES (1) ES2650722T3 (it)
IT (1) ITRM20110469A1 (it)
WO (1) WO2013035121A1 (it)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014198008A1 (en) 2013-06-14 2014-12-18 Yahoo! Inc. Method and system for identifying and delivering enriched content
US9679082B2 (en) 2013-06-14 2017-06-13 Yahoo! Inc. Method and system for identifying and delivering enriched content
CN104484362B (zh) * 2014-12-02 2017-11-17 百度在线网络技术(北京)有限公司 搜索结果的展现方法及装置
WO2016134415A1 (en) * 2015-02-23 2016-09-01 Zuma Beach Ip Pty Ltd Generation of combined videos
US11076198B2 (en) * 2015-05-28 2021-07-27 Idomoo Ltd. System and method to generate an interactive video on the fly
US11653072B2 (en) 2018-09-12 2023-05-16 Zuma Beach Ip Pty Ltd Method and system for generating interactive media content

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090259633A1 (en) * 2008-04-15 2009-10-15 Novafora, Inc. Universal Lookup of Video-Related Data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998013769A1 (fr) * 1996-09-27 1998-04-02 Matsushita Electric Industrial Co., Ltd. Procede de production d'un train multimedia permettant une reproduction selective de donnees video et systeme auteur a disque optique multimedia
WO2006089140A2 (en) * 2005-02-15 2006-08-24 Cuvid Technologies Method and apparatus for producing re-customizable multi-media
JP5649303B2 (ja) * 2006-03-30 2015-01-07 エスアールアイ インターナショナルSRI International メディア・ストリームに注釈を付ける方法および装置
EP2430833A4 (en) * 2009-05-13 2014-01-22 Coincident Tv Inc REPRODUCTION AND PROCESSING OF LINKED AND COMMENTED AUDIOVISUAL WORKS

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090259633A1 (en) * 2008-04-15 2009-10-15 Novafora, Inc. Universal Lookup of Video-Related Data

Also Published As

Publication number Publication date
ES2650722T3 (es) 2018-01-22
WO2013035121A1 (en) 2013-03-14
EP2754112B1 (en) 2017-09-06
US20140331113A1 (en) 2014-11-06
EP2754112A1 (en) 2014-07-16
WO2013035121A8 (en) 2013-08-29

Similar Documents

Publication Publication Date Title
US10306324B2 (en) System and method for presenting content with time based metadata
KR101246976B1 (ko) 미디어 콘텐츠 렌더링의 특징
US9800941B2 (en) Text-synchronized media utilization and manipulation for transcripts
US9363448B2 (en) System and method for providing and interacting with coordinated presentations
KR102299379B1 (ko) 이벤트의 사용자 경험 중에 정보를 획득하기 위한 검색 쿼리들 결정
KR101365829B1 (ko) 대화형 멀티미디어 프리젠테이션을 재생하는 방법을 수행하는 컴퓨터 실행가능 명령어들이 인코딩된 컴퓨터 판독가능 매체, 및 대화형 멀티미디어 프리젠테이션을 재생하는 프리젠테이션 시스템 및 장치
ITRM20110469A1 (it) Sistema e metodo per la produzione da parte di un autore di contenuti multimediali complessi e per la fruizione di tali contenuti da parte di un utente
US20130198321A1 (en) Content associated with primary content
CN104065979A (zh) 一种动态显示和视频内容相关联信息方法及系统
US10397630B2 (en) Apparatus for providing, editing and playing video contents and the method thereof
US9558784B1 (en) Intelligent video navigation techniques
US20160212487A1 (en) Method and system for creating seamless narrated videos using real time streaming media
US9564177B1 (en) Intelligent video navigation techniques
EP3531707A1 (en) Audio content playback control
US9635337B1 (en) Dynamically generated media trailers
CN110036442A (zh) 用于恢复媒体资产的系统和方法
US20080159724A1 (en) Method and system for inputting and displaying commentary information with content
US20190019533A1 (en) Methods for efficient annotation of audiovisual media
Bulterman et al. Socially-aware multimedia authoring: Past, present, and future
KR101328270B1 (ko) 스마트 tv의 비디오 어노테이션 및 증강 방법 및 그 시스템
CN116800988A (zh) 视频生成方法、装置、设备、存储介质和程序产品
Sawada Recast: an interactive platform for personal media curation and distribution
Fricke et al. Work Package 5: LinkedTV platform
Sites in2010, the harold B. Lee Library (hBLL) Multimedia Production Unit, Brigham Young University, uploaded the video “Study Like a Scholar, Scholar” to the popular video-sharing site YouTube. The video parodied a series of old Spice commercials—“The Man Your Man Could Smell Like”—in order to market library services, anything from laptops to snack zones, to their students. The video went viral and has accumulated millions of views in just a few years. The message? if you want better grades, use the library.
Mogessie et al. Lode4Android: bringing rich video-lectures into an app