Miscellanea

Musica rinascimentale e big data

musica rinascimentale e big data

Uno sguardo al Josquin Research Project

Un diverso modo per avvicinarsi alla musica rinascimentale sfruttando le potenzialità della digitalizzazione delle opere musicali. Questa è la mission che si sono prefissati Jesse Rodin, professore associato, e Craig Sapp, professore a contratto, nel Center for Computer Assisted Research in the Humanities (CCARH) dell’Università di Stanford, California.

Con questi intenti nasce nel 2010 il Josquin Research Project (JRP), un sito web che, con accesso gratuito, ospita una raccolta di opere rinascimentali, un archivio che si arricchisce di anno in anno diventando un punto di riferimento per ricerche e approfondimenti sulla musica dell’epoca. Non lasciamoci tradire dal nome del progetto: il portale non raccoglie solo le composizioni di Desprez. Si tratta di un archivio delle opere di compositori per la maggior parte legati in qualche modo alla Scuola di Borgogna e alla Scuola franco-fiamminga.

Il punto di forza di questa piattaforma è l’algoritmo di ricerca: la semplice ricerca per titolo dell’opera, genere o compositore, viene arricchita dalla possibilità di filtrare i brani per particolari pattern melodici e/o ritmici descritti dall’utente. Una modalità innovativa che agevola la ricerca e potrebbe fare scuola ad altri archivi digitali di partiture.

musica rinascimentale e big data

Perché questo sistema di ricerca, pur risultando innovativo e vantaggioso, non costituisce pratica comune?

L’algoritmo analizza nota per nota le opere archiviate, e lo può fare in quanto le partiture originali sono state trascritte all’interno della piattaforma e non semplicemente scansionate (così come avviene, per esempio, sulla Petrucci Music Library del Music Score Library Project (IMSLP)). Ogni nota, così come la relazione tra questa e la precedente o successiva, è rappresentata da un vettore di simboli che l’algoritmo è in grado di riconoscere e mettere in relazione nel momento in cui viene avviata la ricerca dell’utente. Per realizzare la stessa cosa su un archivio di partiture scansionate, bisognerebbe necessariamente effettuare prima un passaggio intermedio di riconoscimento delle note, così come avviene con i sistemi di riconoscimento ottico dei caratteri (software OCR) per il trasferimento dei testi in digitale con cui più di qualcuno di noi avrà familiarità. Effettuare questo processo di riconoscimento in tempo reale, al momento della richiesta dell’utente, richiederebbe grandi potenze di calcolo. La trascrizione delle partiture permette di superare questo limite.

Se pensiamo che ogni nota di ciascuna partitura è codificata all’interno dell’archivio, diventa evidente la vastità dei dati raccolti ed elaborati dalla piattaforma: entriamo nell’ambito dei Big Data, ovvero di enormi volumi di dati eterogenei per fonte e formato, analizzabili in tempo reale. Le caratteristiche fondamentali di questo tipo di dati sono volume, velocità e varietà.

Parlare di Big Data non vuol dire parlare soltanto di grandi moli di dati, la trasformazione in atto è più profonda. Cambia il processo di raccolta e gestione dei dati, si evolvono le tecnologie a supporto del ciclo di vita del dato e si sviluppano nuove competenze per la valorizzazione del dato (ne è un esempio la figura del Data Scientist). Analizzare grandi moli di dati permette di generare nuova conoscenza utile per prendere decisioni più consapevoli, dall’ambito business e del risk management dei settori finanziari all’ambito del calcolo tecnico-scientifico (ad esempio la predizione delle orbite dei satelliti o l’analisi delle mutazioni sul genoma umano). Perché dunque non sfruttare le potenzialità che offrono i Big Data Analytics anche nel settore umanistico e, nello specifico, musicale. Da qui l’idea alla base del Josquin Research Project.

Nel sito del Josquin Research Project, oltre al potente algoritmo di ricerca, sono presenti anche degli strumenti analitici che possono essere usati per ottenere informazioni sulle singole opere:

  • un’analisi spettrale dell’attività delle singole voci (numero di note intonate) in ciascuna battuta dei brani archiviati;
  • la frequenza e le misure in cui compare un determinato schema ritmico nella produzione di un compositore;
  • il range vocale di ogni voce nei vari brani dell’archivio, nello specifico sia la frequenza con cui viene toccata una certa nota sia la somma delle durate (e di conseguenza la fatica che potrebbe essere richiesta al cantore per cantare all’interno di una certa tessitura vocale);
  • un “cacciatore” di quinte e ottave parallele in grado di fornire un elenco dei lavori e delle battute in cui compaiono descrivendone le voci tra le quali si vengono a formare.

Ad ogni brano del catalogo è dedicata una pagina in cui è possibile vedere la partitura e scaricarla in PDF (nell’edizione con e senza alterazioni) in MusicXML, MuseData, JSON Piano Roll e molti altri formati. Nella stessa sezione è possibile ascoltare il brano e scaricarlo in MP3 e/o MIDI. Fin qui, nulla di nuovo rispetto ad altre piattaforme. La pagina però presenta importanti novità: la messa a disposizione di un’analisi formale del brano e l’accesso a un editor (Verovio Humdrum Viewer) che permette l’individuazione automatica di forme imitative, melismi, dissonanze, cadenze.

Questa piattaforma offre degli spunti a interessanti sviluppi futuri. Diversi gruppi di lavoro stanno replicando questo lavoro sul catalogo delle opere di Bach, dei compositori del periodo classico e di quelli del periodo moderno. Le Big Data Analytics permettono di agevolare il lavoro comparativo tra opere svolto dai musicologi riuscendo a rispondere a domande volte a discernere le relazioni tra brani, compositori, generi, persino interi periodi. A titolo di esempio: come cambia lo stile nel tempo? Cosa separa una canzone da una messa? Cosa rende davvero un compositore diverso da un altro?

Il futuro dell’analisi musicologica sta proprio nell’interazione tra l’informatica e le discipline umanistiche. Deve esserci una vera e propria mutazione, una evoluzione della metodologia della ricerca classica che potrebbe essere definita quasi una rivoluzione. Se lasciamo fare alle macchine ciò che sono più propense a fare (analisi ripetitive su grandi moli di dati), è possibile ridurre errori, tempi di analisi e soprattutto destinare il tempo dei ricercatori ad attività più creative.

Similar Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

%d blogger hanno fatto clic su Mi Piace per questo: