ITRM20130179A1 - Sistema per la creazione sociale e la condivisione di contenuti multimediali - Google Patents

Sistema per la creazione sociale e la condivisione di contenuti multimediali Download PDF

Info

Publication number
ITRM20130179A1
ITRM20130179A1 IT000179A ITRM20130179A ITRM20130179A1 IT RM20130179 A1 ITRM20130179 A1 IT RM20130179A1 IT 000179 A IT000179 A IT 000179A IT RM20130179 A ITRM20130179 A IT RM20130179A IT RM20130179 A1 ITRM20130179 A1 IT RM20130179A1
Authority
IT
Italy
Prior art keywords
content
user
video
new
song
Prior art date
Application number
IT000179A
Other languages
English (en)
Inventor
Francesco Antonio Di
Muzio Remigio Di
Original Assignee
Jamgling S R L S
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jamgling S R L S filed Critical Jamgling S R L S
Priority to IT000179A priority Critical patent/ITRM20130179A1/it
Publication of ITRM20130179A1 publication Critical patent/ITRM20130179A1/it

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

Descrizione per invenzione dal titolo:
S<ISTEMA PER LA CREAZIONE SOCIALE E LA CONDIVISIONE DI>
CONTENUTI MULTIMEDIALI
Descrizione
La presente invenzione ha come oggetto un sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale, implementabile attraverso reti informatiche, in particolare attraverso Internet.
Sono noti in arte sistemi per gestire e creare composizioni multimediali che includono in particolare brani musicali; essi implementano tecniche di ingegneria del suono e più in generale di ingegneria dei segnali, e fanno affidamento su soluzioni dell’elettronica e dell’informatica.
Tali sistemi sono stati sviluppati nel corso del tempo per rispondere alle richieste dell’industria musicale e dell’intrattenimento. Tale settore individua nelle produzioni musicali i beni da cui trarre profitto e richiede dunque la massima qualità nella definizione del prodotto stesso. I sistemi sviluppati includono componenti hardware e software e normalmente richiedono la presenza dell’artista nello studio di registrazione.
Un altro filone industriale che ha generato sistemi e metodi per la produzione musicale è quello dell’home computing, che ha prodotto una serie di strumenti software e hardware di ridotte capacità rispetto ai precedenti ma che comunque permette a utenti anche non professionisti di produrre brani musicali dalla qualità anche elevata.
A tal fine si utilizza il segnale digitale più che quello analogico, il primo permettendo di essere elaborato da un processore elettronico.
Un esempio di tali sistemi è rappresentato dalle cosiddette digital audio workstation (DAW) ovvero sistemi elettronici definiti per registrare, editare e riprodurre un segnale digitale. I DAW sono sistemi basati su microprocessori.
Con la diffusione di smartphone e tablet, particolari software e in parte anche hardware (includendo nell’hardware il kit di collegamento tra strumento e sistema su cui il software è eseguito) dedicati hanno permesso di ottenere gli stessi risultati dei DAW con la libertà unica dei sistemi mobili.
Un esempio commerciale di tali sistemi è GarageBand<®>di Apple<®>. Il risultato di tali produzioni può essere commercializzato o condiviso sui cosiddetti social network.
Sono, infatti, da menzionare i social network come sistemi per condividere la musica creata dagli artisti. Un fenomeno di larga popolarità è quello di condividere su social newtork come YouTube<®>o Facebook<®>i video e gli audio creati con o senza i software sopra menzionati. Sempre tramite social network possono essere condivise opere multimediali al fine di collaborare con altri utenti, ma tale collaborazione prevede che i contenuti reperiti sul social network siano poi elaborati individualmente dall’utente interessato. Solo successivamente i risultati sono di nuovo condivisi sulle piattaforme social.
Se per esempio due utenti che volessero collaborare alla creazione di un brano si trovassero fisicamente distanti, dovrebbero ricorrere a sistemi non sincronizzati e diversificati per scambiarsi i relativi contributi alla creazione artistica e dovrebbero usare ulteriori diversi sistemi per comporre i vari brani insieme, nonché ulteriori software e sistemi per il mixaggio e il montaggio video.
Il problema tecnico alla base della presente invenzione è di fornire sistemi che permettono agli utenti, professionisti o meno, di collaborare in modo semplice e immediato alla creazione di brani e videomusicali da postazioni remote e in tempi diversi su una piattaforma condivisa, così da ovviare agli inconvenienti menzionati con riferimento alla tecnica nota.
L’idea alla base della presente invenzione consiste nell’offrire una soluzione a tale scenario, sincronizzando gli sforzi artistici su una piattaforma unica e comune che permette la registrazione, la collaborazione, la riproduzione e la condivisione di brani musicali e sequenze video su cui intervengono diversi utenti. Inoltre, tale soluzione permette anche a persone non particolarmente esperte di musica di partecipare al processo creativo.
Tale problema viene risolto da un sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale comprendente:
� almeno un server atto a contenere una molteplicità di contenuti multimediali, in particolare di tipo audio e video;
� una pluralità di interfaccia remote, collegate tra esse e al server attraverso una rete telematica;
� mezzi di registrazione audio e video connessi a dette interfacce remote, per la produzione e/o l’elaborazione dei contenuti multimediali e per il loro caricamento in detto almeno un server,
in cui, per ogni nuovo contenuto generato, viene generata una chiave identificativa unica a cui sono univocamente collegati: l’utente originatore e il titolo del contenuto, il nuovo contenuto presentando un istante di inizio e un istante di fine contenuto, il sistema essendo fornito di mezzi per collegare a detto nuovo contenuto multimediale ulteriori contenuti associati facenti capo ai medesimi punti di inizio e di fine, essendo inoltre previsti, in corrispondenza di dette interfacce, mezzi per la riproduzione dei contenuti multimediali facenti capo alla medesima chiave identificativa, con l’eventuale esclusione e modifica di uno più contenuti associati.
Il principale vantaggio del sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale secondo la presente invenzione risiede nel consentire delle jam session tra diversi utenti in tempi e luoghi diversi, con la possibilità di assemblare e ascoltare contributi differenti associati al medesimo contenuto principale.
La presente invenzione verrà qui di seguito descritta secondo un suo esempio di realizzazione preferito, fornito a scopo esemplificativo e non limitativo con riferimento ai disegni annessi in cui:
� la figura 1 mostra uno diagramma che rappresenta un esempio di realizzazione del sistema secondo l’invenzione;
� la figura 2 mostra un diagramma che rappresenta il ciclo di vita di una composizione musicale all’interno del sistema;
� la figura 3 mostra un grafo che rappresenta la logica di storing dei diversi contributi musicali nel sistema;
� la figura 4 mostra un diagramma che rappresenta un metodo di "social music creation" attraverso cui gli utenti del sistema contribuiscono ad una composizione originaria inserendo tracce di strumenti e/o voci diverse da quelle contenute nella composizione iniziale e le relative sequenze video;
� le figure 5A, 5B e 5C illustrano come rappresentare diversi contenuti video;
� la figura 6 mostra un diagramma che rappresenta un sistema che implementa la presente invenzione;
� la figura 7 mostra un diagramma che rappresenta una possibile interfaccia attraverso cui l’utente originatore inserisce l'esecuzione musicale e video iniziale registrandola direttamente via webcam;
� la figura 8 illustra un’interfaccia per riascoltare e ricalibrare un’esecuzione prima della sua condivisione;
� le figure 9A e 9B rappresentano possibili interfacce che possono essere viste come l'implementazione di un metodo di ricerca; e
� la figura 10 mostra un diagramma che rappresenta una possibile interfaccia attraverso cui un social user aggiunge una sua esecuzione e il suo contributo video ad un pezzo musicale già condiviso.
Con riferimento alle figure, verrà descritto un esempio di realizzazione di un sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale
Nel seguito, per composizione musicale si intende un oggetto generato a partire dalla registrazione di almeno una onda sonora generata da uno strumento o voce, seguendo un certo ritmo e una certa melodia nonché una determinata armonia.
Per video musicale s’intende una registrazione riproducibile di immagini in sequenza associate ad una certa composizione musicale.
Ci si riferirà inoltre al termine traccia alla componente di un’opera musicale associata ad un particolare strumento o ad una particolare voce, in particolare una traccia della voce, una traccia della chitarra classica e così via.
Con l’espressione creazione sociale s’intende una composizione sequenziale e remota da parte di uno o più utenti di un’opera musicale e del relativo video; per composizione sequenziale s’intende l’inserimento, sull’opera creata da un primo utente detto originatore, di ulteriori componenti sonore che aggiungono tracce di strumenti o voci differenti da quelle già registrate dall’originatore all’opera iniziale.
Ogni volta che un utente aggiunge una traccia a un’opera già esistente, si viene a creare un’ulteriore opera musicale, a sua volta modificabile tramite creazione sociale.
La figura 1 rappresenta il sistema attraverso cui l’originatore, come da definizione precedente, inserisce nel sistema la composizione musicale e/o video iniziale. Attraverso un computer elettronico 101 che può essere un computer desktop, un dispositivo tablet o un dispositivo smartphone come da rappresentazioni in figura, o un qualsiasi altro dispositivo equivalente, l’originatore inserisce su un sistema di raccolta centrale 105, riferita nel seguito come datastore o database, la composizione musicale originaria. Come primo step 102 del metodo, l’originatore indica al sistema le tracce audio degli strumenti e/o voci che intende riprodurre nella sua esecuzione: nel caso voglia cantare e contemporaneamente suonare la chitarra solista del brano, allora indicherà che la voce principale e la chitarra solista sono le tracce che saranno contenute nella sua esecuzione.
Si distinguono dunque due tipi di esecuzioni che l’originatore può inserire nel sistema: in un primo caso l’originatore inserisce la sua esecuzione di un brano già esistente (cover), nel secondo caso l’originatore inserisce la sua esecuzione di un brano originale. La scelta avviene allo step indicato con 103.
Nel primo caso, il metodo prevede innanzitutto la selezione del brano già esistente. Nel sistema di raccolta dati centrale 105 vengono conservate le informazioni riguardanti tutti i brani conosciuti su scala internazionale (per esempio tutti quelli registrati e depositati presso tutti i centri di protezione del diritto d’autore a livello mondiale) e per i quali si mantengono nel sistema almeno le informazioni relative al nome del gruppo artistico o artista a cui il brano è associato e al titolo della composizione musicale. Esistono banche dati dove tali informazioni sono messe a disposizione al pubblico.
Oltre a queste, possibilmente si conservano anche una frequenza, i beat per minute BPM (o battiti al minuto) di riferimento del brano e la tonalità di riferimento del brano.
Dunque, si andrà a prelevare in una banca dati pubblicamente accessibile, nel seguito menzionata come datastore, tali informazioni da associare al brano che stiamo per riprodurre nel caso di una cover.
L’utente originatore dunque selezionerà innanzitutto l’artista o il gruppo artistico di cui vuole eseguire una composizione e il titolo di tale composizione. Se anche le informazioni opzionali sono presenti in 105, l’originatore riceverà le informazioni relative ai BPM e alla tonalità di base della composizione. Potrà dunque decidere se eseguire il brano con BPM e tonalità di base oppure se discostarsi da tali dati. Il secondo input 106 dell’originatore nel nostro metodo è dunque proprio la scelta di BPM e tonalità con cui eseguire il brano prescelto. È conveniente che l’originatore indichi tali valori in termini di scostamento (eventuale) dai dati di base. In questo modo se lungo il brano ci sono diversi BPM e tonalità di base, si applicherà la convenzione che l’originatore continuerà a distaccarsi da tali valori nella medesima proporzione.
Comunque, non è strettamente necessario indicare BPM e tonalità e un sistema che implementa il presente metodo può funzionare correttamente con il solo input da parte dell’utente delle informazioni relative ad artista e titolo del brano.
Nel secondo caso, ovvero l’inserimento di un brano inedito, l'utente indicherà se il brano è da associare a egli stesso oppure a un gruppo musicale creato come insieme di utenti della piattaforma. Il sistema metterà quindi a disposizione funzionalità per creare un gruppo di utenti connessi (band) a cui sarà poi possibile associare composizioni musicali originali.
Dopo aver assegnato l'artista o la band autore del brano, l'utente darà un titolo alla creazione musicale. In seguito potrà eventualmente scegliere BPM e tonalità di base da associare al brano. Anche in questo caso tali informazioni non sono necessarie.
Per entrambi i casi sopra menzionate, con EXTRA (103) si indicano le informazioni come BPM, tonalità, album e qualsiasi altra informazione non necessaria ma che arricchisce la documentazione della creazione musicale.
Come passo successivo, l’originatore sceglierà se caricare nel sistema (upload) una composizione audio o video già esistente e in cui esegue il brano 104, oppure se registrare tramite dispositivo digitale collegato al computer in uso 101 il brano stesso 106. Nel primo caso, l’originatore sceglierà dunque il brano o video da caricare, che può essere conservato nel computer 101 stesso oppure in un ulteriore banca dati in rete a cui l’originatore ha direttamente accesso. Una volta caricato il file contente il brano e/o video, il sistema prevede che l’originatore indichi i punti di inizio e fine utili del brano o video stesso 108. Il sistema proposto farà in modo che sull’interfaccia del dispositivo usato dall’originatore appaia uno strumento di selezione di tale punto temporale all’interno dell’intervallo temporale del file caricato.
Nel secondo caso, l’originatore utilizzerà un dispositivo di registrazione digitale incorporato o collegato al computer per registrare e salvare la composizione. L’originatore può selezionare se utilizzare sia microfono, sia una videocamera (se entrambi presenti) oppure se solo il microfono. Il sistema farà in modo che in caso di più dispositivi simili associati al computer, l’originatore possa scegliere quale effettivamente utilizzare. Per esempio, ciò può essere fatto tramite un menu video contenente tutti i dispositivi presenti, per ciascun tipo di dispositivo; l’utente sceglierà tramite selezione il dispositivo da utilizzare. Se si sceglie di utilizzare la videocamera (webcam) eventualmente presente, l’originatore vedrà sullo schermo del suo dispositivo l’immagine ripresa dalla telecamera.
Sono note varie tecnologie che permettono di accedere ai dispositivi audio e video tramite piattaforma web, come per esempio Adobe Flash<®>, HTML5 e altri. Inoltre, l’utente potrebbe indicare se vuole o meno ascoltare il battito del metronomo associato alla frequenza, ovvero ai BPM scelti (se indicati). Il sistema prevede che in questo caso, un filtro appositamente dedicato elimini il battito dalla registrazione finale. Dopo aver eventualmente testato tramite relative funzionalità del sistema che i dispositivi sono funzionanti, l’originatore può iniziare la registrazione delle tracce selezionate della composizione. A tal fine, il metodo prevede che l’originatore indichi che è pronto a registrare e un countdown, per esempio di 5 secondi, verrà iniziato per dare all’utente il tempo di essere pronto a registrare. Al termine del countdown, che apparirà a video sul dispositivo usato, l’effettiva registrazione inizierà.
Insieme alla registrazione audio, verrà eventualmente effettuata anche la registrazione video.
Una volta terminata l’esecuzione, l’utente interromperà la registrazione tramite opportuna interfaccia d’interazione. Dato il comando di stop, l’utente potrà riascoltare ed eventualmente elaborare la registrazione applicando un filtro per eliminare il rumore d’ambiente, oppure per ricalibrare il guadagno se il volume della registrazione è troppo basso/alto. Il processing di tale elaborazione è affidata al computer a disposizione dell’utente.
I filtri disponibili possono essere molteplici: oltre all’eliminazione del rumore di fondo, considerando che il sistema non prevede l’impiego di sale di registrazione anecoiche di tipo professionale, potranno anche essere eliminati eventuali riverberi, aggiunte dissolvenze di ingresso o uscita, distorsioni, overdrive, fuzz del suono, effetti eco, effetti chorus, ritardi e così via. Per ottenere questi effetti, potranno anche essere impiegati programmi di elaborazione acustica installati nel terminale dell’originatore.
Per entrambi gli scenari visti, l’originatore dà l’input finale 107 al sistema decidendo se scartare il contributo, salvare il suo contributo come un draft o bozza oppure se condividere pubblicamente sul social network la sua esecuzione.
Dunque, dopo aver riascoltato ed eventualmente modificato il segnale, l’utente decide cosa fare del suo contributo. Come detto, in un primo caso il contributo verrà eliminato. In un secondo scenario (ovvero draft) il contenuto registrato resterà a disposizione dell’utente sul centro dati 105 ma non sarà visibile da altri utenti, mentre nel caso venga condiviso gli utenti del sistema aventi il diritto di accedere alle informazioni dell’originatore potranno visualizzare il contributo e decidere se usufruirne come base per la loro esecuzione, come vedremo in seguito. L’originatore può eventualmente anche indicare 108 gli utenti cui inviare immediatamente notifica dell’avvenuta deposizione sul sistema della composizione musicale e/o video. Gli utenti selezionati saranno dunque avvisati dal sistema tramite notifica dell’avvenuto caricamento da parte dell’originatore della traccia musicale. La notifica può avvenire via e-mail o come un messaggio interno al social network. Nel caso l’utente inserisca non un video ma solo audio, il video associato conterrà uno sfondo scelto dall’utente oppure un simbolo base messo a disposizione dal sistema.
Prima di essere definitivamente salvato sul datastore, il file contenente la riproduzione è convertito con lo step 109 in un formato standard sia per l’audio che per il video che sarà comune a tutti i file salvati sul datastore (ad es. .mp3 per i contributi audio e .flv per quelli video). A questo punto abbiamo una prima composizione musicale e anche un punto di partenza per future collaborazioni.
La figura 2 rappresenta il ciclo di vita di una composizione musicale all’interno del sistema social network, ovvero ciò che definiamo metodo di composizione sociale, incrementale e remota di brani audio e video.
La composizione iniziale 201 è quella generata con il metodo 100 di Figura 1 e che l’utente ha deciso di condividere con gli altri utenti del social network. A partire da questa composizione iniziale, gli utenti definiti come “social user” in quanto facenti parte del social network, possono creare una nuova composizione che comprenda una traccia da loro inserita utilizzando il metodo 202, definito in dettaglio in Figura 4. Quando il social user 203 decide di utilizzare la composizione iniziale 201, il sistema prevede che alcuni vincoli siano rispettati:
� L’utente 203 potrà inserire solo tracce relative a strumenti e/o voci non contenute nella composizione iniziale;
� Nel caso in cui BPM e tonalità siano stati scelti dall’utente originatore, l’utente 203 dovrà attenersi a rispettarli e non potrà usarne di diversi; nel caso in cui BPM e tonalità non siano stati indicati dall’originatore, l’utente 203 non ha facoltà di selezionarli;
� Nel caso in cui l’utente 203 decida di condividere i risultati della composizione, l’utente originatore sarà avvisato che un nuovo brano è stato generato utilizzando il suo come base.
La composizione musicale generata dalla collaborazione “offline” del metodo genererà una “augmented composition” o composizione risultante 204 che include le tracce del secondo utente e che potrà a sua volta essere utilizzata come base per future tracce.
Inoltre, un altro social user 203 potrà decidere di utilizzare la traccia iniziale come base e generare un’altra augmented composition 204. Ogni volta dovranno essere rispettati i vincoli sopra indicati. In questo modo si arriverà a molteplici composizioni originate da una prima composizione e ciascuna con un numero maggiore di tracce.
Pertanto tale sistema o metodo di composizione può essere definito come sequenziale e incrementale. Il sistema è inoltre eseguito in remoto via rete telematica, in particolare Internet, in quanto gli utenti che partecipano alla composizione possono trovarsi in luoghi geografici diversi.
Il sistema che verrà illustrato in seguito rende possibile la connessione dei vari utenti ai fini della collaborazione.
Grazie al sistema messo a disposizione, gli utenti possono aggiungere il loro contributo a quello degli altri utenti e anche modificare il setup delle basi nelle loro riproduzioni, senza modificare la base utilizzata. Infatti, quello che verrà conservato sul sistema insieme alle tracce è una configurazione di guadagni e filtri con cui il social user configura le tracce base, ma senza modificarle.
Al di là della visualizzazione orizzontale vista in Figura 2, per capire meglio come i dati vengono conservati e interconnessi è utile presentare una vista verticale che presenta come l’invenzione gestisce i singoli contributi. I contributi sono visualizzati come nodi di un grafo.
La figura 3 rappresenta tramite grafo la logica di storing dei diversi contributi musicali nel sistema. I contributi dei diversi utenti vengono raggruppati in “famiglie” di grafi. Quella che appare in Figura 3 è la porzione di una famiglia. La composizione originaria 301 è il nodo identificativo del grafo delle tracce ad esso associate. Essa viene univocamente identificata da una chiave di identificazione, per esempio numerica, creata o generata al momento dell’inserimento del contributo sul datastore centrale e a cui sono associate le seguenti informazioni:
� Utente che ha inserito la composizione originaria
� Nome del gruppo artistico cui il brano è eventualmente associato
� Titolo del brano
� Data e ora dell’inserimento
� Eventuali BPM e tonalità
Al di là delle chiavi di identificazione nel database, il brano originario determinerà dunque caratteristiche uniche, che saranno condivise dalle tracce ad esso associate.
Per esempio, l’istante effettivo d’inizio del brano e il BPM effettivo (quello che realmente l’utente esegue) del brano. Tutte le tracce che useranno il brano originario come radice dovranno attenersi a tali caratteristiche. Tali tracce potranno essere utilizzate come base da ulteriori tracce. Tali ulteriori tracce saranno usate come base da altri utenti che per lo stesso principio arricchiranno di nodi la famiglia che ha come radice il brano inserito dall’utente originario. In questo modo si vengono a creare tanti nodi tra di loro collegati che condividono il fatto di essere sincronizzati sulle stesse proprietà dettate dalla traccia originaria.
Sotto questo punto di vista, una composizione sociale è data dall’unione di diversi nodi. Nel grafo di esempio, una composizione finale è data da 300, che raggruppa i contributi 301, 302 e 304. I tre contributi eseguono tracce relative a strumenti e voci diversi. Nel database vengono conservate sia le tracce singole separate tra loro, sia possibilmente anche il mixaggio finale, eseguito sfruttando le informazioni contenute sugli archi del grafo.
Il ciclo di vita della composizione 300 ha visto nascere innanzitutto il brano originario 301. Un secondo utente ha poi inserito una traccia 302 usando 301 come base e dando vita ad un nuovo brano 303. Questo nuovo brano 303 prevede che il contributo 301 abbia il guadagno in dB ridotto di un fattore, per esempio un fattore 0.8, voluto dall’utente che ha inserito 302. Inoltre, si può applicare un filtro (per esempio per pulire il segnale da rumore alto) messo a disposizione dal sistema (F=1).
Un ulteriore utente vuole a questo punto inserire una traccia prendendo come base entrambi i contributi 301 e 302. Dunque eseguirà la sua performance e la salverà indicando che non vuole filtri per le tracce originarie della base e non vuole modificare il loro guadagno in termini di dB (F=0,G=1). Ha dato dunque origine al brano 300, dato appunto dalle tre tracce salvate indipendentemente sul sistema ma di cui si conserva una configurazione interdipendente di settaggi audio. Inoltre, anche il contributo mixato secondo tale configurazione è conservato sul sistema per rapidità di accesso e uso da parte di altri utenti. Vedremo successivamente come tale mixaggio è eseguito.
La struttura proposta, che conserva un grafo con nodi indipendenti ma anche i contributi mixati, permette di moltiplicare esponenzialmente le possibilità di collaborazione.
L’invenzione propone anche un metodo di ricerca basi nel presente sistema.
Immaginiamo infatti che un utente desideri riprodurre la sua versione della voce di un certo brano in un qualunque momento e in un qualunque posto. Grazie al sistema proposto, la presente invenzione mette a disposizione un metodo di ricerca basi in cui l’utente indica:
� Il titolo della canzone che desidera eseguire
� Il nome dell’artista o gruppo della canzone
� La/le traccia/e (voce o strumento) che intende eseguire
� La/le traccia/e che desidera avere come base
Le basi saranno restituite all’utente come brani già mixati, includendo solo le tracce da lui indicate. Le basi saranno raggruppate secondo le “famiglie” individuate dalla struttura a grafo prima esplicata.
Per esempio, si può immaginare che all’utente sia restituita una lista di basi, dove ogni elemento della lista è la combinazione delle tracce più apprezzate per una certa famiglia di nodi associata a quella canzone. In questo modo, anche se le tracce desiderate come base sono state eseguite in maniera indipendente e non direttamente sullo stesso brano base, ma comunque sempre all’interno della stessa famiglia di nodi, all’utente vengono presentate come un brano unico. Se non si utilizzasse la struttura a grafo ma si salvassero i brani come entità singole, le possibilità sarebbero enormemente ridotte.
A titolo esemplificativo, s’immagini che su una base di chitarra e basso un utente registri una batteria. Con un struttura con nodi non indipendenti si avrà solo il brano con basso e chitarra e il brano con chitarra, basso e batteria. Non sarebbe possibile avere una base di batteria e chitarra o di batteria e basso, ma solo le basi create negli stadi successivi di collaborazione.
Inoltre, dopo aver ascoltato le tracce della base mixate (presenti sul datastore) l’utente può decidere se sostituire una o più tracce con le tracce di altri utenti che hanno suonato sulla “famiglia” di base. Dopo aver individuato la base desiderata, il sistema procederà al mixing come verrà illustrato in Figura 4. Infine, l’utente sfrutterà i metodi proposti per collaborare al processo creativo.
In Figura 4 è proposta la rappresentazione concettuale del metodo di "social music creation" attraverso cui gli utenti del sistema contribuiscono ad una composizione originaria 401 inserendo tracce di strumenti e/o voci diverse da quelle contenute nella composizione iniziale. Dunque verrà illustrato un metodo per collaborare direttamente alla composizione iniziale.
A ogni contributo inserito, si viene effettivamente ad avere una nuova composizione e tale nuova composizione può essere considerata come un punto di partenza per altri contributi. Allo stesso modo, il fatto che un utente inserisca tracce su una composizione iniziale non vieta ad altri utenti di inserire contributi sulla stessa composizione iniziale e di avere dunque più di una nuova composizione generata a partire dalla stessa. Chiunque sia iscritto al social network e sia connesso con l'utente originatore può utilizzare la composizione originale come base per un suo intervento. Il nuovo brano, che abbiamo definito "augmented composition", sarà associato agli utenti che vi hanno contribuito in quanto appunto contribuenti della jam session. Inoltre, se gli utenti che collaborano aggiungono anche sequenze video, queste saranno processate insieme in modo da arrivare ad un unico video associato alla collaborazione.
Illustriamo dunque il metodo seguendo la Figura 4. La composizione originale 401 è caratterizzata dalle tracce originarie ed eventualmente da BPM originari e da una tonalità originaria. Tutte queste caratteristiche sono state determinate dall'utente originatore. Come da vincoli espressi in precedenza, chiunque voglia utilizzare la composizione 401 come base dovrà eseguire tracce diverse da quelle già presenti e attenersi agli eventuali BPM e tonalità.
Il social user 402 che è connesso con l'utente originatore decide di comporre sopra la base 401. Come primo step 403 del metodo dovrà scegliere quale o quali nuove tracce caricare. Per esempio, se nella composizione originaria erano stati eseguiti voce solista e chitarra solista, l'utente 402 potrà eseguire tutte le voci e/o strumenti diversi appunto da voce e chitarra soliste. Per esempio sceglierà di eseguire la traccia relativa al basso elettrico. Successivamente sceglierà se eseguire il brano in diretta e registrarlo via microfono e webcam 404 oppure se caricare un brano e/o video già registrato 405. Nel caso 404 l'utente potrà ascoltare il brano base durante la sua esecuzione. L'utente sarà allertato di ascoltare il brano originario solo in caso di cuffie collegate all'apparecchio elettronico. Proprio come per la registrazione iniziale, quando l'utente comunica di essere pronto alla registrazione un countdown di 5 secondi viene lanciato. Al termine del countdown inizia la registrazione dell’esecuzione dell’utente attraverso videocamera e microfono collegate al sistema proposto. Se munito di cuffie, durante la registrazione l'utente ascolterà il brano 401 e vedrà il video a esso associato. Una volta terminata l'esecuzione l'utente potrà riascoltare il brano "aumentato" della sua traccia risultante. Dal lato del terminale dell’utente verranno infatti eseguiti due flussi audio, ovvero la base e l’esecuzione appena registrata. Il social user 402 potrà fare un’operazione di fine tuning sui due componimenti modificandone il guadagno o applicando filtri sia sulla base che sulla sua registrazione, come precedentemente descritto.
Come già detto, le modifiche relative alla base non andranno a modificare la base stessa ma saranno conservate come informazioni relative alla collaborazione. Sul datastore questa configurazione corrisponderà alle informazioni sugli archi del grafo.
Inoltre l'utente 402 potrà anche sincronizzare (406) la sua esecuzione con quella di base nel caso noti un disallineamento tra le due. Il sistema fornirà apposite interfacce per spostare in avanti o indietro la traccia audio a passi predefiniti, per esempio di 5 ms (regolazione fine) oppure di 1 s (regolazione grossolana). Dopo aver sincronizzato i brani, l'utente potrà riascoltare il tutto e decidere se scartare la produzione, salvarla nella sua libreria personale come bozza oppure condividerla. Se la composizione è salvata o condivisa abbiamo dunque un nuovo brano, una "composizione aumentata" definibile come creazione musicale sociale.
Tornando al punto 405, gli step del metodo sono leggermente diversi ma portano allo stesso risultato. L'utente 402 sceglierà un file audio o video da caricare. Proprio come per l'utente originatore, anche in questo caso verrà chiesto all'utente di indicare l'inizio e la fine utile dell'esecuzione attraverso opportune interfacce. Dopo aver associato il brano caricato con quello originario, l'utente potrà riascoltare la performance complessiva ed eventualmente sincronizzare (406) la sua esecuzione, come già visto in precedenza. Dopo aver sincronizzato, se decide di conservare la registrazione, abbiamo dato origine ad una composizione sociale e remota di un brano musicale.
Una volta salvata sul sistema di storing centrale, le tracce sono conservate secondo le relazioni ad albero illustrate in Figura 3. Come si è visto, il sistema non ha eseguito alcun mixing delle tracce fino a questo momento. Infatti, sfruttando le tecnologie disponibili come HTML 5 o Adobe Flash, le tracce vengono registrate e riprodotte singolarmente dal lato client, tramite i dispositivi 101 di Figura 1 disponibili agli utenti.
Solo una volta che le tracce sono salvate sul datastore e sono condivise sul social network, il sistema provvederà a mixare audio e video in modo da avere un unico elemento, velocemente visualizzabile e riascoltabile e utilizzabile come base per futuri contributi.
La tecnica di mixing 408 adottata prevede che le fonti audio da combinare siano rappresentate ciascuna da due flussi 407-a, 407-b, 407-c e 407-d (uno per il canale destro e uno per il sinistro) di campioni dell'onda sonora, ciascuno costituito da un numero intero di 16 bit che rappresenta il valore dell'ampiezza dell'onda nell'istante di campionamento. Il mix 408 avviene sommando, per ogni istante di campionamento, i relativi campioni di ognuna delle fonti, avendoli però prima convertiti nel formato in virgola mobile. Questa conversione avviene al fine di evitare di eccedere, nel sommare i valori, la capacità limitata dei numeri a 16 bit, normalizzati dividendoli per il valore massimo di un campione in maniera da lavorare con valori compresi tra zero e uno, e attenuati moltiplicandoli per un fattore F minore di uno.
Questo fattore viene calcolato a partire da un valore di attenuazione, espresso in dB, che può essere opportunamente tarato per modificare il comportamento dell'algoritmo; la formula per il calcolo del fattore di attenuazione è la seguente:
dove F è il fattore da calcolare, D è il valore in dB dell'attenuazione per fonte ed N è il numero delle fonti. Nel caso che stiamo discutendo, ovvero di due fonti, avremo dunque N=2.
Una volta sommati i campioni di tutte le fonti il valore finale potrebbe superare il valore massimo consentito, che viene posto a uno. L'operazione termina effettuando l'operazione inversa della normalizzazione, cioè riportando il valore del campione alla scala originaria moltiplicandolo per il valore massimo consentito.
Grazie a tale tecnica si ottiene un brano di qualità sufficiente agli scopi proposti e in tempi utili a supportare la struttura a grafo con nodi indipendenti.
Anche in questo caso il brano finale è convertito (409) in un formato standard prima di essere definitivamente salvato sul datastore (410).
È da sottolineare come anche la singola traccia registrata dall’utente 402 sia salvata, dopo lo step di sincronizzazione 406, sul datastore 410 e dunque conservata singolarmente come nodo del grafo di Figura 3.
Il metodo illustrato in Figura 4 è valido anche nel caso in cui un utente volesse utilizzare due o più tracce come base per la sua esecuzione. Dopo aver eseguito il metodo di ricerca, l’utente seleziona il brano o le singole tracce da utilizzare come base. Se non già presente sul datastore, il brano combinato delle tracce viene mixato secondo la formula illustrata in precedenza e restituito all’utente. Il valore di N in questo caso dipenderà dal numero di singole tracce scelte. L’unico vincolo nella scelta delle singole tracce è che esse devono appartenere alla stessa famiglia (o grafo).
A questo punto la base (o elemento 401 di Figura 4) è data dalle tracce appena mixate, ed è a tutti gli effetti un unico brano. L’utente dunque procederà come da metodo di Figura 4 per arrivare a salvare la sua composizione sul datastore e ottenere un brano unico. Si tratterà dunque anche in questo caso di mixare due singole fonti (la base e il contributo del nuovo utente).
In una modalità più avanzata, l’utente avrà a disposizione le singole tracce scelte tutte caricate singolarmente sul suo dispositivo (non mixate). Dopo aver eseguito e registrato il suo contributo potrà aggiustare guadagni e filtri delle altre tracce. A questo punto la configurazione di tali aggiustamenti è salvata sul datastore come label dei lati del grafo di Figura 3 (F e G) e la produzione complessiva mixata lato server secondo le formule e i passaggi illustrati per il metodo di Figura 4. In questo modo avremo un brano unico (mixato) con i setting voluti dall’utente ma senza compromettere l’integrità delle singole tracce di base.
Per quanto riguarda la parte video, i contributi saranno processati dal sistema seguendo regole ben precise. Se sono due gli utenti a collaborare il video risultante sarà dato dall'unione dei due video da loro inseriti, equamente suddivisi nello spazio disponibile, come da Figura 5A. A tal fine i video sono elaborati in modo che il numero di pixel totali rimanga fisso ad un certo valore. Il video generato potrà avere qualità HD. L’utente potrà poi visualizzarlo anche in qualità meno pregiate, per esempio per ridurre i tempi di download e facilitare lo streaming video in relazione alla capacità di banda a sua disposizione.
Se i contributi video sono tre, potrà esserci una suddivisione come rappresentata in Figura 5B, e se sono quattro come da Figura 5C e così via. Se gli utenti che hanno aggiunto altri video alla composizione sono più di quattro, allora i video potranno essere suddivisi non in termini di spazio ma di tempo. Dunque saranno dedicati per esempio 10 secondi al primo video, per poi dedicare altri 10 secondi al secondo video e così via ciclicamente. La composizione dei video avviene sempre lato server, allo step 408 di Figura 4.
Altrimenti, in base alla rilevazione del flusso sonoro, i contributi video potrebbero essere selettivamente mostrati, a mosaico o in sequenza, quando in essi vi è presente un flusso sonoro attivo e non una fase di attesa.
La figura 6 schematizza il sistema qui descritto attraverso una struttura esemplificativa.
È da intendersi che tale rappresentazione è puramente illustrativa di un esempio di sistema che implementa la presente invenzione e altri sistemi possono essere concepiti che non si distaccano dalla natura dell'invenzione.
Il blocco 601 può essere inteso come il singolo elemento attraverso cui l'utente accede al social network presentato. Il blocco 601 rappresenta dunque uno di quei terminali elettronici associati all'elemento 101 di Figura 1, quelli che commercialmente sono definiti computer desktop, laptop, notebook, tablet o smartphone. Tale terminale elettronico funge da punto di accesso per l'utente ai metodi e sistemi proposti. Gli elementi del terminale elettronico 601-a e 601-b possono includere componenti hardware legati da un bus elettrico e uno o più processori 602; possono inoltre essere inclusi dispositivi di input 603 come per esempio mouse, tastiere, touchscreen, webcam o microfono; possono essere inclusi anche dispositivi di output 604 come per esempio un monitor, una stampante, delle casse audio o delle cuffie. Il blocco può includere degli elementi di storage di massa 605 come per esempio hard disk. I dispositivi comprenderanno inoltre un sottosistema di comunicazione 606, che può includere per esempio un modem, una scheda di rete (cablata o wireless), una scheda bluetooth. Tale sottosistema permette di comunicare con una rete di calcolatori come per esempio la rete Internet o una qualche rete intranet.Il sistema di calcolo comprenderà anche della memoria ad accesso casuale ("RAM") o di sola lettura ("ROM"). Normalmente il sistema conterrà anche elementi software necessari al proprio funzionamento e normalmente allocati proprio su tali memorie ROM o RAM, come per esempio il sistema operativo o programmi applicativi fondamentali per svolgere le comuni operazioni di calcolo.
Il blocco 607 del sistema rappresenta l’elemento server, che conserva in modo remoto gli elementi hardware, il codice di calcolo, le interfacce tradotte sotto forma di codice per computer e tutte le funzionalità necessarie ad implementare la collaborazione collaborativa su una piattaforma unica. I server 607 avranno potenti unità di elaborazione 608, storage di massa 609, sottosistema di comunicazione 610, memoria di calcolo (RAM e ROM) 611 e quant’altro sia necessario per eseguire i metodi proposti tradotti in codice macchina. Sempre su tali server saranno presenti database contenenti i dati relativi agli utenti del social network, alle composizioni registrate dagli utenti, alle caratteristiche come tonalità e BPM di brani noti e a tutte le produzioni intermedie generate durante il processing di Figura 4. Tali strutture di dati possono essere implementati su un numero qualsiasi di database interconnessi in una qualsiasi configurazione. Si può utilizzare un qualsiasi tipo di base di dati, come per esempio relazionale, gerarchico, grafico, orientato agli oggetti e altri. Prodotti di basi di dati comuni sono il DB2<®>di IBM<®>, vari prodotti di Oracle Corporation, Microsoft SQL Server<®>di Microsoft<®>Corporation. I server possono essere molteplici e interconnessi secondo l’architettura preferita.
Come detto anche le interfacce possono essere contenute nel sottosistema 606. Questa è la scelta preferita per i computer fissi (PC) che vi accederanno via programmi applicativi general-purpose normalmente definiti browser o programmi di navigazione. Per i dispositivi mobili, si accederà al social network attraverso specifiche applicazioni mobili. Sia che si parli di applicazioni mobili sia che si tratti di browser, la loro funzione sarà quella di accedere a programmi applicativi eseguiti sul server 606 contenuto nel network e a cui il sistema si connette attraverso il sottosistema di comunicazione. Alcune operazioni del sistema proposto saranno comunque eseguiti nel blocco 601 come per esempio le istruzioni relative alla gestione degli input/output dei dispositivi come microfoni o webcam. Grazie a codice scritto nel linguaggio preferito (trattandosi di applicazioni su network si preferisce Java<®>, Ruby<®>, C#<®>, HTML5, Flash<®>o similari) il sistema sarà in grado di gestire gli input di tali dispositivi. Sarà inoltre possibile all'utente gestire tali dispositivi attraverso comandi di input.
La figura 7 rappresenta una possibile interfaccia video attraverso cui l’utente originatore inserisce l'esecuzione musicale e video iniziale registrandola direttamente via webcam. Attraverso questa interfaccia l'utente è guidato intuitivamente e naturalmente attraverso i vari step del sistema, che saranno a lui trasparenti. Nell'area 701 dello schermo sono presentati i vari strumenti e/o voci che l'utente originatore può decidere di eseguire. L'utente selezionerà le tracce da eseguire per esempio mediante trascinamento con un cursore comandato da un mouse su una colonna che le contiene. Come detto, il sistema fornisce gli strumenti per gestire le periferiche di input. Nell'area 702, tramite un menu a tendina 703, si possono scegliere le periferiche da utilizzare per audio e video. Si può anche immaginare che tale menu sia associato a ciascuna traccia che si seleziona (per esempio un menu per la voce e uno per la chitarra). In questo modo diversi input possono essere associati a diversi strumenti e/o voci.
L'utente sarà dunque chiamato a scegliere attraverso i pulsanti 704 se si tratta di un brano inedito o di una cover, ovvero di una performance di una canzone già esistente. Se si tratta di una canzone originale 705, l'utente vedrà apparire dopo aver premuto su "New Song" i campi Band e Title. Tra le Band saranno presenti l'utente stesso e le band cui egli partecipa come gruppi all'interno del social network. Nel campo "Title" l'utente inserirà il titolo della nuova composizione.
Se invece l'utente andrà a eseguire una cover 706 allora selezionerà come minimo la band autrice della composizione, l'album che contiene la canzone e il titolo della canzone stessa. Tutti questi input sono dati sotto forma di menu o campi di testo. Man mano che l'utente digita testo all'interno di uno dei campi, il sistema andrà a cercare nel datastore tra le collezioni musicali quali nomi di band/album/canzoni sono uguali a quanto sta cercando l'utente.
Solo dopo aver riempito tutti i campi indicati fino a ora, l'utente potrà avviare la registrazione premendo il tasto Start 707. Dopo averlo premuto partirà un countdown di per esempio 5 secondi sulla zona 702 che è la stessa dove apparirà la ripresa della webcam. Dopo averlo premuto il tasto Start diverrà Stop. Quando l'utente ha terminato la sua esecuzione, premerà di nuovo il tasto 707 che ora è Stop e la registrazione si interromperà. A questo punto l'utente potrà riascoltare e ricalibrare la sua esecuzione prima di condividerla sul social network o scartarla.
L'interfaccia per fare tali azioni è riportata in Figura 8, dove si vede la schermata che apparirà all'utente al momento della interruzione della registrazione dell'esecuzione musicale. Avremo un riepilogo dei dati significativi e identificativi del brano nell’area 801. Attraverso il tasto Replay 802 possiamo rivedere il video e riascoltare quanto prodotto per apprezzare la qualità dell'esecuzione e decidere come finalizzare la produzione. Con il tasto 803 possiamo rendere pubblica la nostra performance, con il tasto 804 essa può essere salvata, ma solo l'utente sarà in grado di visualizzarla, e con il tasto 805 invece è possibile eliminare quanto registrato.
In un secondo momento, non rappresentato nelle interfacce, sarà possibile invitare altri utenti ad utilizzare l'esecuzione come base per completare il brano oppure aggiungere un commento di testo relativo alla performance.
Tramite la barra 806 è possibile modificare il guadagno dell'ampiezza dell'onda registrata durante la nostra esecuzione in modo da avere un suono più o meno amplificato. Inoltre nella zona 807 sono presenti filtri basilari come quello dell'annullamento del rumore di fondo, un filtro che rende più caldo il suono, uno che provoca l'effetto riverbero e così via. L'utente può utilizzare questi strumenti prima di decidere cosa fare della registrazione (tramite i tasti 803-804-805).
Le figure 9 (9A e 9B) rappresentano possibili interfacce che possono essere viste come l'implementazione per il metodo di ricerca.
In Figura 9A l'utente seleziona il titolo del brano 902, l'artista o band che ne sono autori 903, gli strumenti e/o voci che il brano deve già contenere 904 e gli strumenti e/o voci che l'utente eseguirà 905. Quindi si avvia la ricerca con il tasto 901.
In Figura 9B vediamo i risultati del processo di ricerca. Sulla colonna 906 sono raccolti i brani che contengono le tracce desiderate, classificati in base all’apprezzamento raccolto sul social network. Ogni brano è associato ad una famiglia di nodi e sarà il brano più apprezzato per quella famiglia. Abbiamo dunque una doppia classificazione qualitativa. Selezionando uno dei video l’utente potrà ascoltarlo e poi procedere ad utilizzarlo come base per la sua esecuzione. Oppure premendo il tasto “Use It!” potrà usarlo direttamente come base. Nella parte 907 della figura sono ordinati invece in colonne i contributi dei vari utenti. Avremo dunque una colonna per ogni traccia cercata. Inoltre ogni contributo è posto sulla stessa riga del brano più apprezzato della sua famiglia di nodi. Per esempio il contributo voce dell’utente CHRISTINE (908) appartiene alla stessa famiglia del brano 909. Se si seleziona un contributo singolo (come per esempio il 908) l'utente lo ascolta e lo può selezionare come traccia per la sua base. Poi l'utente indicherà un contributo per ogni tipo di traccia desiderata per la base. In questo modo si dà all'utente la possibilità di comporre la base come preferisce. Questo è possibile grazie alla struttura a grafo.
La figura 10 rappresenta una possibile interfaccia attraverso cui un social user aggiunge la sua esecuzione e il suo contributo video ad un pezzo musicale presente sul datastore del social network. Come si vede, vengono ripresentate le stesse funzionalità per l'input della base originaria più l'area 1001 dove viene riprodotto il video base e l'area 1002 tramite cui l'utente può riposizionare il suo contributo per sincronizzarlo prima di condividere o scartare la sua registrazione. Quando riascolterà la sua esecuzione premendo sul tasto 1003 automaticamente e nello stesso istante verrà riprodotta anche la base (il cui video verrà visualizzato nella zona 1001). I filtri e i guadagni 1004 saranno applicati sulla sua registrazione. C'è anche una modalità avanzata che prevede che l'utente applichi tali filtri e guadagni anche alle singole tracce della base (qui non è presentata tale opzione).
Oltre ai filtri relativi al suono precedentemente menzionati, potranno essere ugualmente previsti filtri per le immagini video, per esempio bianco e nero, blur e così via.
Le Figura da 1 a 10 sono puramente esemplificative di possibili interfacce per accedere ad un sistema che sfrutta i metodi per generare automaticamente brani e video musicali composti da più utenti, in remoto e in maniera sequenziale e incrementale. Altri sistemi e altre interfacce possono essere messi a punto che sfruttano la natura della presente invenzione.
Al sopra descritto sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale un tecnico del ramo, allo scopo di soddisfare ulteriori e contingenti esigenze, potrà apportare numerose ulteriori modifiche e varianti, tutte peraltro comprese nell'ambito di protezione della presente invenzione, quale definita dalle rivendicazioni allegate.

Claims (10)

  1. RIVENDICAZIONI 1. Sistema per la creazione sociale e la condivisione di contenuti multimediali come brani musicali e video con un contenuto musicale comprendente: � almeno un server atto a contenere una molteplicità di contenuti multimediali, in particolare di tipo audio e video; � una pluralità di interfaccia remote, collegate tra esse e al server attraverso una rete telematica; � mezzi di registrazione audio e video connessi a dette interfacce remote, per la produzione e/o l’elaborazione dei contenuti multimediali e per il loro caricamento in detto almeno un server, in cui, per ogni nuovo contenuto generato, viene generata una chiave identificativa unica a cui sono univocamente collegati: l’utente originatore e il titolo del contenuto, il nuovo contenuto presentando un istante di inizio e un istante di fine contenuto, il sistema essendo fornito di mezzi per collegare a detto nuovo contenuto multimediale ulteriori contenuti associati facenti capo ai medesimi punti di inizio e di fine, essendo inoltre previsti, in corrispondenza di dette interfacce, mezzi per la riproduzione dei contenuti multimediali facenti capo alla medesima chiave identificativa, con l’eventuale esclusione e modifica di uno più contenuti associati.
  2. 2. Sistema secondo la rivendicazione 1, in cui al nuovo contenuto generato è associata una frequenza (BPM) e/o una tonalità.
  3. 3. Sistema secondo la rivendicazione 2, che comprende mezzi per eliminare un battito di metronomo associato alla frequenza dall’esecuzione del brano musicale e dalla registrazione finale.
  4. 4. Sistema secondo la rivendicazione 1, in cui all’istante di inizio è associato un countdown che appare a video, prima che inizi la registrazione di un contenuto associato.
  5. 5. Sistema, secondo la rivendicazione 1, in cui a ogni contenuto, nuovo o associato, è connessa una registrazione video.
  6. 6. Sistema secondo la rivendicazione 1, in cui a ogni contenuto, nuovo o associato, sono collegati una pluralità di filtri.
  7. 7. Sistema secondo la rivendicazione 1, in cui detti filtri comprendono un filtro per eliminare il rumore d’ambiente, un filtro per ricalibrare il guadagno, un filtro per eliminare riverberi, un filtro per l’aggiunta di dissolvenze di ingresso o uscita, distorsioni, overdrive, fuzz del suono, effetti eco, effetti chorus, ritardi.
  8. 8. Sistema secondo la rivendicazione 1, in cui è previsto un avviso all’utente originatore ogni volta che un contenuto viene associato al proprio contenuto.
  9. 9. Sistema secondo la rivendicazione 1, che comprende mezzi per sincronizzare un contenuto associato a un nuovo contenuto, atti a spostare in avanti o indietro la relativa traccia audio a passi predefiniti.
  10. 10. Sistema secondo la rivendicazione 1, in cui i contenuti sono mixati su due canali distinti, per campioni di onda sonora, ciascuno costituito da un numero intero di 16 bit che rappresenta il valore dell'ampiezza dell'onda nell'istante di campionamento.
IT000179A 2013-03-25 2013-03-25 Sistema per la creazione sociale e la condivisione di contenuti multimediali ITRM20130179A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
IT000179A ITRM20130179A1 (it) 2013-03-25 2013-03-25 Sistema per la creazione sociale e la condivisione di contenuti multimediali

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000179A ITRM20130179A1 (it) 2013-03-25 2013-03-25 Sistema per la creazione sociale e la condivisione di contenuti multimediali

Publications (1)

Publication Number Publication Date
ITRM20130179A1 true ITRM20130179A1 (it) 2014-09-26

Family

ID=48446508

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000179A ITRM20130179A1 (it) 2013-03-25 2013-03-25 Sistema per la creazione sociale e la condivisione di contenuti multimediali

Country Status (1)

Country Link
IT (1) ITRM20130179A1 (it)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070245400A1 (en) * 1998-11-06 2007-10-18 Seungyup Paek Video description system and method
US20080215979A1 (en) * 2007-03-02 2008-09-04 Clifton Stephen J Automatically generating audiovisual works
US20080256086A1 (en) * 2007-04-10 2008-10-16 Sony Corporation Information processing system, information processing apparatus, server apparatus, information processing method, and program
US20090164034A1 (en) * 2007-12-19 2009-06-25 Dopetracks, Llc Web-based performance collaborations based on multimedia-content sharing
US20110276881A1 (en) * 2009-06-18 2011-11-10 Cyberlink Corp. Systems and Methods for Sharing Multimedia Editing Projects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070245400A1 (en) * 1998-11-06 2007-10-18 Seungyup Paek Video description system and method
US20080215979A1 (en) * 2007-03-02 2008-09-04 Clifton Stephen J Automatically generating audiovisual works
US20080256086A1 (en) * 2007-04-10 2008-10-16 Sony Corporation Information processing system, information processing apparatus, server apparatus, information processing method, and program
US20090164034A1 (en) * 2007-12-19 2009-06-25 Dopetracks, Llc Web-based performance collaborations based on multimedia-content sharing
US20110276881A1 (en) * 2009-06-18 2011-11-10 Cyberlink Corp. Systems and Methods for Sharing Multimedia Editing Projects

Similar Documents

Publication Publication Date Title
US11037541B2 (en) Method of composing a piece of digital music using musical experience descriptors to indicate what, when and how musical events should appear in the piece of digital music automatically composed and generated by an automated music composition and generation system
US10062367B1 (en) Vocal effects control system
Sexton Music, sound and multimedia: From the live to the virtual
US20150066780A1 (en) Developing Music and Media
US20110126103A1 (en) Method and system for a &#34;karaoke collage&#34;
US11120782B1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
KR101963753B1 (ko) 음악의 분절별 동영상 재생 방법 및 장치
US10403251B1 (en) System and method of collectively producing music
US20120072841A1 (en) Browser-Based Song Creation
WO2019102730A1 (ja) 情報処理装置、情報処理方法及びプログラム
Bosma Gender and technological failures in Glitch music
Weitzner et al. massMobile: towards a flexible framework for large-scale participatory collaborations in live performances
US20190051272A1 (en) Audio editing and publication platform
CN107562745A (zh) 一种音频播放列表的生成方法、系统及一种音频播放系统
Rickert et al. The distributed Gesamptkunstwerk: Sound, worlding, and new media culture
Clauhs et al. The DAW revolution
US20220326906A1 (en) Systems and methods for dynamically synthesizing audio files on a mobile device
Morgan Delian Modes: Listening for Delia Derbyshire in Histories of Electronic Dance Music
ITRM20130179A1 (it) Sistema per la creazione sociale e la condivisione di contenuti multimediali
Redhead Composing and recording for fluid digital music forms
O’Grady The Politics of Digitizing Analogue Recording Technologies
Koszolko Performative Storytelling: The Model of Setting-Based Mobile Music Creation
Harvell Make music with your iPad
US20240153475A1 (en) Music management services
EP4322028A1 (en) Data processing apparatuses and methods