Un primo sguardo a ULOOP: alcuni spunti per formulare le domande di ricerca

Sulla sostenibilità sociale di una nuova tecnologia

Questo post è il primo di una serie di articoli curati da Erica Giambitto e dedicati al progetto ULOOP.
Inizia  il nostro lavoro di ricerca nell’ambito del progetto ULOOP (User-centric Wireless Local Loop), che sarà principalmente orientato all’analisi della sostenibilità socio-economica di questa nuova tecnologia, e più in generale, ai suoi possibili impatti sociali.
ULOOP è un progetto triennale finanziato dall’Unione Europea nell’ambito del settimo programma quadro. Per l’Università di Urbino coordina il team interdisciplinare che lavora al progetto il Prof. Alessandro Bogliolo.
Che cos’è ULOOP
Come suggerisce il nome “User-centric Wireless Local Loop” ULOOP è una tecnologia che coinvolge l’utente nella creazione di reti. L’idea principale è quella di sfruttare l’alta densità di reti wireless disponibili sviluppando dei meccanismi di condivisione virtuosa che permettano una gestione delle risorse dinamiche volte a creare un’architettura che si auto-organizzi in base al contesto. Una volta realizzata, consentirà agli utenti di generare una rete wireless attraverso i loro dispositivi ULOOP permettendo da un lato di accedere ad Internet sostituendosi all’”ultimo miglio” e dall’altro di offrire e usufruire vicendevolmente di servizi attraverso i propri device, come ad esempio un local-loop attivato in base a ciò che una comunità di individui (utenti finali) desidera condividere (informazioni, dati, periferiche). Collaborazione sospinta da incentivi alla cooperazione e buone regole di comportamento il sui supporto sarà integrato direttamente al livello della piattaforma.
Gli usi previsti di ULOOP sono stati ipotizzati e raccolti in due casi d’uso specifici, ciascuno dei quali prevede degli Scenari rappresentativi che illustrano, in modo dettagliato, il modo in cui funzionerà questa tecnologia.  Il primo caso d’uso, da qui ULOOP1, riguarda in particolare gli aspetti legati alle potenzialità della tecnologia come ad esempio l’estensione della copertura offerta dal wireless e lo scambio di servizi e di dati tra utenti equipaggiati con dispositivi ULOOP. Il secondo caso d’uso, da qui ULOOP2,  si basa sulle caratteristiche del primo e prevede lo sviluppo di una connessione locale, legata alla compresenza degli utenti in un’area definita, in grado di adattarsi al contesto e alle necessità degli utenti stessi, fornendo così una piattaforma di scambio di dati e informazioni basata su un modello collaborativo.
Vediamo brevemente le scene rappresentative di ogni caso d’uso:
ULOOP 1
Scenario 1.1 Estensione della copertura a banda larga:
Interfacciando i dispositivi U-Loop gli utenti saranno in grado di configurarsi come nodi connessione alla rete espandendone la copertura o di sfruttare la disponibilità offerta in questo senso da un altro utente.
Scenario1.2 Offloading 3G: 
Secondo lo stesso principio parte del traffico che normalmente viene consumato sulla rete 3G potrà essere trasferito e smaltito attraverso U-Loop.
Scenario1.3 Comunicazioni intra-U-Loop: In uno spazio definito,  gli utenti possono creare reti ad-hoc per condividere informazioni internamente senza utilizzare la connessione ad internet, risparmiando batteria e costi di connessione;
Scenario1.4 Bilanciamento e adattamento del carico:
sovraccarichi della rete in termini di numeri d’accesso saranno gestiti dal sistema in modo da consentire una velocità di connessione ottimale per ogni utente;
Scenario1.5 Controllo d’accesso basato sulla fiducia:
I permessi di aggancio tra un device e l’altro verranno gestiti automaticamente dal sistema in base alle “credenziali” degli utenti, tracciate anche attraverso le relazioni stabilite sui social network. Questo potrà essere un meccanismo auto-regolatore del comportamento: feedback positivi renderanno più facile l’accesso ad altri device mentre feedback negativi renderanno più difficile la connessione;
Scenario1.6 Supporto di responsabilità:
Controllo della responsabilità delle azioni connesse, consentendo l’accesso ai servizi attraverso il proprio device si avrà la certezza che azioni scorrette compiute da altri non saranno attribuite a chi ha permesso la connessione.
ULOOP 2
Scenario 2.1 Monitoraggio collaborativo:
gli utenti collaborano nella raccolta e ri-diffusione di dati e informazioni riguardo all’ambiente, realizzando così un monitoraggio collaborativo di situazioni contingenti (pericoli, attività);
Scenario 2.2 Advertising di prossimità: 
invio e ricezione di comunicazioni commerciali riferite al contesto;
Scenario 2.3 Servizi turistici di comunità:
condivisione di informazioni turistiche sui luoghi in cui ci si trova;
Scenario 2.4 Individuazione collaborativa di attacchi:
comportamenti anormali o dannosi di altri utenti possono essere tracciati e individuati attraverso azioni collaborative;
Scenario 2.5 Coordinamento di attività di gruppo:
che non necessitano di una connessione ad internet, e che avvengono in quel momento. Si pensi a come ad esempio flash mob, eventi, lavori di gruppo;
Scenario 2.6 Condivisione di device:
come ad esempio stampanti, possono essere rese disponibili da alcuni utenti ad altri membri della community.
Il nostro compito sarà quello di occuparci degli aspetti connessi alla sostenibilità sociale. 
Questo progetto si propone dunque di esplorare il potenziale di un local-loop wireless basato su un modello centrato sull’utente, ed è sviluppato grazie ad una collaborazione interdisciplinare volta ad approfondirne gli impatti da diverse prospettive: tecnico, di business, legislativo e sociale.
Abbiamo deciso di partire da una domanda, implicitamente parte del programma di ricerca affidatoci, che orientasse la nostra attività: ULOOP è una tecnologia che ha una sostenibilità sociale? Si tratta di una domanda non facile che necessita, prima ancora di una risposta, di alcuni chiarimenti preliminari. Dobbiamo perciò innanzitutto chiederci cosa intendiamo con sostenibilità sociale di una tecnologia.
Sostenibilità sociale come mantenimento dell’equilibrio di un sistema
In una prima concettualizzazione di sostenibilità sociale ci è stata utile la tesi di laurea di Serena Canu “Just Greener. Teoria e pratica degli eventi sostenibili in italia” la quale presenta diverse prospettive sulla sostenibilità. L’idea di sostenibilità che emerge unisce due concetti: la prima definizione di sviluppo sostenibile data nel 1987 dal rapporto Brundtland (WCED, Brundtland G.H , Mansour  K.,  1987 common future,  Oxford University Press, Oxford, GB), e cioè di uno sviluppo incentrato non solo sulla crescita economica ma anche su un aumento del benessere generale, e l’idea di sostenibilità sviluppata da Alessandro Lanza (Lanza Alessandro, Lo sviluppo sostenibile, Il Mulino, Bologna, 1997 ) che vede come necessaria una gestione delle risorse che sia compatibile con le capacità di riproduzione delle stesse. Dunque come prima idea di sostenibilità possiamo considerare uno sviluppo inteso come aumento del benessere collettivo organizzato sulla base di una gestione delle risorse che non porti a sprechi né ad un esaurimento delle stesse.
Un secondo concetto che può tornarci utile è quello di impronta ecologica secondo cui il comportamento di ognuno ha un impatto sull’ambiente ed è perciò responsabilità del singolo regolare il proprio modo di agire per rendere il suo impatto inquinante il più basso possibile.
Infine, un ulteriore punto di vista ci è offerto, sempre facendo riferimento alla tesi di Canu, da Serge Latouche il quale propone un modello basato sulla decrescita (Latouche Serge, Breve trattato sulla decrescita serena, Bollati Boringhieri, Torino, 2008) e cioè su una diminuzione dei consumi e su una migliore gestione delle risorse. Su questa base Latouche rimodella anche il concetto di impronta ecologica: descrivendola come un adeguamento dei consumi di ogni singolo individuo basato non più sulla quantità di inquinamento prodotto, bensì sulle risorse che l’ambiente ha a disposizione per ognuno. Questa nuova idea di sostenibilità ambientale può essere sviluppata, secondo Latouche, in un percorso che prevede otto tappe di cambiamento tra loro interdipendenti.
Possiamo a questo punto chiederci se i modi di utilizzo previsti da ULOOP rispettino le caratteristiche di sostenibilità citate e tracciare così le prime ipotesi sulla sostenibilità sociale di ULOOP.
Ciò che emerge dalla descrizione dei casi d’uso di ULOOP è l’idea di  una tecnologia il cui funzionamento si basa su una nuova concezione dell’utente, visto come nodo attivo della rete che contribuisce, mettendo a disposizione della collettività il proprio dispositivo per migliorare la gestione di risorse quali l’estensione di banda, la potenza di calcolo, l’utilizzo di memoria o energia, a sviluppare un sistema dinamico che sia in grado di adattarsi alle esigenze degli individui in relazione al contesto (luogo e momento di utilizzo). Il punto di forza di ULOOP  sta nella capacità del sistema di trasferire le risorse tra gli utenti in modo tale che, chi vuole, può permettere ad altri di utilizzare risorse a lui non necessarie in quel momento.
Forse a qualcuno, leggendo questa descrizione, sarà venuto in mente il progetto FON. Siete sulla buona strada perché proprio FON è uno dei partner del progetto ULOOP.
Possiamo rintracciare in questa modalità di funzionamento un sistema in grado di gestire le proprie risorse in maniera ottimale per il benessere della collettività. Un sistema che ha forti similitudini con quegli aspetti dello sviluppo sostenibile sopra evidenziati dalle teorie della sostenibilità.
Alcuni dei servizi offerti da ULOOP sembrano incarnare quelle tappe descritte da Latouche (ibidem). Un esempio è quella che l’autore chiama Rivalutazione:  e cioè la “rivalutazione di valori oggi sopraffatti”  come può essere la condivisione di risorse senza scopo di lucro. Oppure la Riconcettualizzazione e la Ridistribuzione: tappe basate sulla “ristrutturazione dei rapporti sociali e ridistribuzione delle ricchezze”, con ULOOP si può infatti mettere a disposizione il contributo del proprio device e ottimizzare il consumo di banda o di batteria agendo anche in un’ottica di Riduzione dei consumi. Ancora, possiamo considerare la Rilocalizzazione: per cui “movimenti di merci e capitali devono essere limitati all’indispensabile”, ULOOP consente uno scambio di informazioni che riguardano l’area in cui gli utenti si trovano in un determinato momento (ad esempio informazioni turistiche, di traffico o commerciali)  senza dover ricorrere ad una connessione ad internet.
ULOOP come comunità in cui emerge capitale sociale
Lo scambio reciproco di risorse e servizi che avviene tra utenti, e tra utente e sistema, può essere osservato anche attraverso il concetto di capitale sociale. Come espresso da Portes (Portes Alejandro, SOCIAL CAPITAL: Its Origins and Applications in Modern Sociology Annu. Rev. Sociol. 1998. p.1-24) il capitale sociale è la capacità di ottenere vantaggi attraverso l’appartenenza a reti e ad altre strutture sociali per cui per

possedere capitale sociale una persona deve essere relazionata ad altre, e sono quegli altri, e non lui stesso, a costituire la fonte di suoi vantaggi (ibidem, p.6).

Riportando la definizione di Bourdieu di capitale sociale e cioè

l’aggregato delle risorse attuali e potenziali legate al possesso di una rete di relazioni di reciproca conoscenza (…), in cui i vantaggi che derivano dall’appartenenza ad un gruppo sono le basi della solidarietà che lo rende possibile (Bourdieu 1985, p. 248)

l’autore evidenzia come il capitale sociale sia scomponibile in due elementi: la relazione sociale che permette agli individui di ottenere l’accesso alle risorse possedute da altri e la quantità e la qualità delle risorse in sé.
Le caratteristiche proprie di ULOOP lo rendono un luogo dinamico all’interno del quale diversi attori interagiscono per usufruire di una rete di risorse e servizi, fornendo a loro volta un servizio. ULOOP si configura, dunque, come una rete di relazioni da cui emerge capitale sociale.
Il lavoro di Portes ci aiuta anche nel tentativo di comprendere le motivazioni per cui i membri di ULOOP, dovrebbero rendere disponibili le proprie risorse a vantaggio di altri. Secondo l’autore le motivazioni di chi, attraverso il proprio contributo, fornisce ad altri l’accesso alle risorse possono essere distinte in due generi: consumatorie strumentali.
Le prime riguardano gli individui che provano senso di comunità e di appartenenza nei confronti dell’ambiente in cui agiscono, per questo saranno ben disposti nell’aiutare gli altri membri della comunità e a rispettare le regole condivise.
Le seconde vedono gli individui affidarsi al funzionamento della comunità come garanzia del fatto che saranno ripagati del loro contributo, sia in termini di restituzione del servizio o della risorsa, sia in termini di acquisizione di uno status onorevole che riscuote approvazione dalla comunità.
Alla base di questi meccanismi c’è la percezione di appartenenza ad una comunità sulla quale si struttura da un lato la bounded solidarity per cui l’identificazione con il proprio gruppo spinge a contribuire al suo benessere favorendo l’iniziativa reciproca, cortocircuitando il fenomeno del free riding (Coleman 1990, pp.273; Portes & Sensenbrenner 1993); dall’altro una enforceable trust secondo cui l’appartenenza comune ad una stessa comunità è garanzia che il proprio contributo verrà ripagato con un riconoscimento da parte della comunità e che il debito verrà ripagato.
Questi concetti possono aiutarci ad approfondire l’analisi già intrapresa (ULOOP, White Paper 03, p.5) sull’inserimento degli utenti di ULOOP nella catena del valore, per cui ogni utente in essa coinvolto deve trarre vantaggio dall’uso di ULOOP in modo da essere motivato alla partecipazione supportandone così il funzionamento.
In particolare l’analisi evidenzia diverse forme di incentivi alla partecipazione e cioè: vantaggi immediati forniti dalla partecipazione ad uno scenario; il coinvolgimento nella catena del valore per cui gli attori coinvolti devono beneficiare da ULOOP in modo da essere motivati ad attivare e supportare le caratteristiche di ULOOP; il “role swapping per cui gli eventuali svantaggi sofferti in una situazione verranno ricompensati da vantaggi ottenuti in altre situazioni; l’acquisizione di una reputazione basata sul comportamento tenuto in ULOOP e la possibilità di monetarizzazione, ovvero l’accumulazione di crediti spendibili nella catena del valore.
Sostenibilità sociale come raggiungimento di una massa critica
Un altro modo di interrogarci sulla sostenibilità sociale di ULOOP nella nostra ricerca ha a che fare con il raggiungimento della massa critica, e cioè il raggiungimento di un numero di utenti tale da permettere alla rete ULOOP di autoalimentarsi e di sostenersi.
<< La sostenibilità socio-economica di una rete ULOOP dipende dalla diffusione dei devices abilitati ULOOP che, a sua volta, dipende dalla capacità del modello di attirare le persone. Così, l’analisi di sostenibilità deve cominciare dalle caratteristiche chiave di ULOOP, che possono essere percepite come valore aggiunto dai giocatori coinvolti nel modello>> (White Paper on ULOOP Socio-Economics).
La diffusione dei device abilitati, al momento non è quantificabile essendo ULOOP una tecnologia in fase di progettazione, ma viene ipotizzata analizzando i requisiti di penetrazione necessari al funzionamento del modello. Per ognuno dei casi d’uso analizzati nel report sono stati individuati dei requisiti di penetrazione che ipotizzassero la quantità di minima, target (ottimale) e motivazionale (che stimoli la partecipazione e che invogli altri attori ad utilizzare ULOOP)  di device raggiungibili da ogni nodo della rete, necessari al funzionamento del modello.
La densità degli utenti che utilizzano ULOOP, dunque, influenza le sue possibilità di funzionamento e, di conseguenza, anche la sua qualità. Il raggiungimento di una densità motivazionale, ad esempio, può invogliare altri utenti ad attivarsi, aggiungendo così un nuovo nodo potenzialmente attivo alla rete. Inoltre, più nodi potenzialmente attivi si aggiungono alla rete, più il valore aggiunto percepito dagli utenti aumenta (si pensi a come cresce il valore di un social network con il crescere delle persone che lo utilizzano).
Possiamo così richiamare il concetto di network effect. In particolare ciò che ci interessa è l’accezione che ne dà la legge di Metcalfe secondo cui il valore di una rete è proporzionale al quadrato degli utenti della rete stessa. Il network effect, però, si sviluppa solo dopo che il numero di adesioni ha superato una certa soglia, detta massa critica.
In questo senso un’altra domanda di ricerca potrebbe essere: quali tecnologie hanno raggiunto una massa criticaQuali sono le caratteristiche che hanno in comune e hanno consentito loro di raggiungere una massa critica? E’ possibile rintracciare queste caratteristiche anche in ULOOP?
Una delle tecnologie prese in considerazione è la connessione ad internet da mobile. Secondo l’analisi di Nielsen Media (Critical Mass, The Worldwide state of the Mobile web, Nielsen Mobile, 2008), l’utilizzo di Internet da dispositivo mobile ha raggiunto una massa critica di utenti attraverso una confluenza di fattori che hanno portato ad un  miglioramento dell’esperienza di Internet da parte degli utenti, fattori  tra cui spiccano  la velocità delle reti e la disponibilità dei contenuti .
Un altro confronto utile potrebbe rivelarsi quello con Apple iPhone. Lo stesso studio di Nielsen rivela che sebbene nell’anno in cui è stato svolto lo studio iPhone fosse ancora agli esordi, l’82% di possessori di iPhone lo utilizzavano per collegarsi ad Internet. Il rapporto degli utenti con iPhone ha migliorato l’esperienza degli utenti con i device mobili, creando nuove aspettative di esperienza nell’uso di un device per collegarsi alla rete in merito alla sua usabilità e allapossibilità di condividere informazioni geolocalizzate e in tempo reale.
Miglioramento dell’esperienza nei confronti e grazie alla tecnologia, velocità, mobilità, disponibilità di contenuti e di informazioni sensibili al contesto. Caratteristiche queste che sono alla base del funzionamento dei dispositivi ULOOP: garantisce un trasferimento di dati veloce in quanto sfrutta tutte le risorse disponibili per la condivisione dei dati; consente, attraverso il bilanciamento del carico di traffico, di evitare eventuali sovraccarichi di rete e, dunque, rallentamenti; si adatta al contesto nel funzionamento in generale, nella reperibilità di servizi e nella raccolta e diffusione di informazioni.
Queste considerazioni fanno emergere un altro interrogativo per la nostra ricerca: perché si dovrebbe usare una tecnologia come ULOOP dal momento che ne esistano già di simili largamente usate? Quali sono le caratteristiche che potrebbero spingere gli utenti all’utilizzo di ULOOP?
ULOOP si differenzia da tutte le altre tecnologie nella possibilità offerta agli utenti di sviluppare local loop wireless in maniera autonoma e semplice. Come introdotto nel White Paper 01, la tecnologia di ULOOP sfrutta il recente successo di tecnologie come il Wi-Fi ponendosi come anello di passaggio nella diffusione della rete dal Wi-Fi all’utente finale.  La flessibilità del Wi-Fi sta dando nuove possibilità di connessione alla rete internet, soprattutto nello sviluppo di tecnologie che permettono all’utente di diventare un nodo attivo nella catena di distribuzione della connettività (vedi appunto FON).
Attraverso i device abilitati ULOOP gli utenti possono creare delle reti collegandosi tra di loro, anche in maniera indipendente dalla rete Internet;  oppure legate ad essa agendo come suo diretto punto di espansione della portata. Questo consente da un lato una maggiore fluidità e semplicità nello scambio di dati e informazioni e dall’altro un’estensione della  portata della rete ad un costo ridotto.
La flessibilità e la libertà offerte nella creazione di reti mettono in evidenza un altro tratto unico di ULOOP e cioè lapossibilità di sviluppare una architettura di rete “Fai-Da-Te”, caratterizzata da una infrastruttura altamente dinamica e adattabile al contesto d’uso.
Analizzando a fondo le scene rappresentative dei casi d’uso e confrontandole con tecnologie già esistenti che offrono servizi simili potremmo comprendere meglio l’unicità e l’attrattività di ULOOP dal punto di vista dell’utente. Per fare questo ci concentreremo in particolare sul caso d’uso ULOOP2 in quanto descrive effettivi comportamenti di utilizzo di ULOOP tra utenti che possono essere riscontrate anche in altre tecnologie.
Scenario 2.1 Collaborative monitoring:
attraverso ULOOP si può sviluppare un controllo sull’ambiente in tempo reale e collaborativo, in modo da fornire ad altri utenti informazioni il più possibile dettagliate. Questa caratteristica può essere confrontata con applicazioni iPhone, o più in generale per smartphone, per il controllo del traffico in tempo reale come ad esempio Wikango e Waze.
Scenario 2.2 Advertising di Prossimità:
 
e le sue potenzialità possono essere confrontate  con i check-in di foursquare oppure i facebookdeals.
Scenario 2.3 Servizi turistici alla comunità:
prevede una condivisione di informazioni turistiche all’interno della rete creata ad hoc da turisti che si trovano in una stessa zona o dagli abitanti locali per agevolare la presenza dei turisti nel territorio. Questo tipo di funzionalità può essere paragonato con applicazioni per smartphone come ad esempio TripWolf che consente di avere informazioni contestualizzate in base alla propria localizzazione e permette di scaricarle per poterle consultare offline in modo da non consumare tropo traffico in roaming nel caso di un viaggio all’estero;
Già a questo punto si può delineare una prima fondamentale differenza: tutti questi servizi sono offerti oggi attraverso delle applicazioni realizzate appositamente da diversi soggetti, che devono essere ricercate e installate sul proprio dispositivo, mentre su un dispositivo ULOOP sono delle funzionalità integrate nel modo di funzionamento della tecnologia stessa.
Scenario 2.4 Individuazione di attacchi alla rete attraverso la cooperazione:
per comprendere come questi meccanismi sociali lavorano e come potrebbero funzionare su ULOOP si è pensato di analizzare e confrontarli con i sistemi che si sviluppano negli ambienti peer-to-peer, come ad esempio Wikipedia, dove il gruppo punisce e isola quei soggetti che sfruttano il sistema senza contribuire o che addirittura lo danneggiano. Parte di questa analisi è stata già sviluppata attraverso l’analisi della catena di valore e dei meccanismi di incentivo che emergono nei modelli di interazione tra i soggetti ULOOP.
Scenario 2.5 Coordinamento di attività di gruppo:
questa Scenario rappresentativo racchiude in realtà molte possibilità di utilizzo. A partire da attività di gruppo di tipo lavorativo o di studio, fino ad attività di social networking senza la necessità di una rete internet. L’utilizzo più interessante e stimolante è però quello di poter creare un coordinamento di attività di gruppo just-in-time che sia indipendente dall’accesso alla rete, in particolare per analizzare questa caratteristica prenderemo in considerazione il caso delle manifestazioni in Egitto e il problema dell’accesso alla rete negato dalle autorità.
Scenario 2.6 Condivisione di Device:
 Attraverso i dispositivi ULOOP sarà più semplice condividere dati e informazioni, ma anche periferiche. Penseremo alle difficoltà che si riscontrano nel tentativo di una condivisione tra due pc connessi tramite wi-fi e vedremo in che modo i dispositivi ULOOP possono differenziarsi in questi utilizzi.
Primi approcci teorici: alcuni chiarimenti
La ricerca su ULOOP è veramente complessa e sfaccettata, pertanto questi sono gli interrogativi iniziali che guideranno la nostra ricerca ma data la vastità degli argomenti toccati e delle possibilità offerte da questa nuova tecnologia sicuramente emergeranno nuovi interrogativi e nuove vie da esplorare.
È necessario a questo punto fare una ulteriore considerazione. Lo sviluppo e l’evoluzione e di una tecnologia possono essere ipotizzati e tracciati in base alle caratteristiche della tecnologia e alle ipotesi di utilizzo ma, come ci suggerisce l’approccio del Social Shaping of Technologies (Williams R., Edge D. The social shaping of technology, in Research Policy vol. 25, 1996)  la natura delle tecnologie e la direzione del loro cambiamento non è predeterminata in modo lineare, né  hanno necessariamente un “impatto” determinato sulla vita sociale ed economica. L’idea di fondo  è che la creazione e l’implementazione della tecnologia è modellata da un ampio numero di fattori organizzativi, politici, economici e sociali. Il Social Shaping of Technologies (SST) non è un modello teorico unitario, ma un approccio emergente da diversi filoni di ricerca i quali condividono alcune idee di fondo, a partire dal concetto di tecnologia stesso. Secondo l’approccio SST la tecnologia non è una “scatola nera inconoscibile” né un “equipaggiamento” che viene progettato e creato in risposta ad una necessità, collocato in un ambiente e poi spinto fino alla sua adozione da parte degli utenti. La tecnologia, invece, incorpora modelli socio-economici che devono essere svelati e analizzati, sia nel contenuto sia nei suoi processi di evoluzione e innovazione.
La tecnologia è vista come un <<fenomeno inclusivo>> (ibidem, p.868) il cui processo di sviluppo procede grazie all’interazione e alla tensione continua tra elementi tecnici e sociali. Per parlare di tecnologia e del suo sviluppo è necessario, dunque, considerare tutte quelle istituzioni, assetti e organizzazioni all’interno dei quali ha luogo l’adozione, la configurazione e l’utilizzo della tecnologia. In questo insieme di fattori devono essere incluse la conoscenza e l’expertise che l’hanno creata e che si incorporano in essa, e il processo di apprendimento e di esperienza che si sviluppa nell’uso della tecnologia stessa.
Questo approccio si concentra, inoltre, sul concetto di scelta che influenza tutti i passaggi nella creazione di una tecnologia dall’ideazione, alla progettazione, alla commercializzazione all’uso. Possiamo pensare alla tecnologia come un <<giardino di traiettorie che si biforcano>> (ibid. p857) e ogni scelta compiuta da ogni attore sociale può portare a diversi esiti e a diverse implicazioni per la società e per i gruppi sociali che la usano nel suo processo di evoluzione. Questo apre a due questioni che riguardano la negoziabilità e la irreversibilità.
1. La negoziabilità riguarda lo scopo per cui alcuni gruppi sociali forzano la forma delle tecnologie per i loro fini (si pensi alla nascita dell’e-mail, in seguito alla trasformazione del modo d’uso della tecnologia di connessione sviluppata da ARPANET).
2. L’irreversibilità riguarda il radicamento di certi usi che preclude la possibilità di sviluppi diversi o alternativi di quella tecnologia.
E’ importante, inoltre, osservare il modo in cui la tecnologia si diffonde, obiettivo questo della “Teoria della diffusione delle innovazioni” (Si veda su questo il contributo di Leah A. Lievrouw, Progettazione e sviluppo dei new media: diffusione delle innovazioni e modellamento sociale della tecnologia nell’edizione italiana del manuale Capire i New Media. Culture, comunicazione, innovazione tecnologica e istituzioni sociali e anche le slide realizzate da Davide Bennato sul tema) sviluppata da Rogers e che

pone particolare attenzione alle relazioni comunicative e ai flussi di informazione che promuovono l’adozione e l’implementazione di una tecnologia

Secondo questa teoria, infatti le reti di relazioni e i significati condivisi modellano l’azione sociale, inclusa l’adozione della tecnologia ed è importante tenerne conto soprattutto in quelle tecnologie che si sviluppano su modelli informatici di comunicazione.
Dal momento che U-Loop è una tecnologia altamente flessibile e che offre innovativi modi di interazione tra utenti e tra utenti e ambiente, sarà necessario un livello di analisi che vada oltre l’idea di “previsione dell’impatto sociale” e che, piuttosto, ponga attenzione ai modi in cui la tecnologia evolve sia in fase di progettazione sia in fase di adozione, non per anticipare ma per comprenderne al meglio gli sviluppi possibili e futuri.
Quanto detto fin qui raccoglie le prime domande e le prime considerazioni che orienteranno la nostra attività di ricerca su ULOOP.
Per le risposte dovrete attendere necessariamente i post successivi 🙂Questo post è il primo di una serie di articoli curati da Erica Giambitto e dedicati al progetto ULOOP.
Inizia  il nostro lavoro di ricerca nell’ambito del progetto ULOOP (User-centric Wireless Local Loop), che sarà principalmente orientato all’analisi della sostenibilità socio-economica di questa nuova tecnologia, e più in generale, ai suoi possibili impatti sociali.
ULOOP è un progetto triennale finanziato dall’Unione Europea nell’ambito del settimo programma quadro. Per l’Università di Urbino coordina il team interdisciplinare che lavora al progetto il Prof. Alessandro Bogliolo.
Che cos’è ULOOP
Come suggerisce il nome “User-centric Wireless Local Loop” ULOOP è una tecnologia che coinvolge l’utente nella creazione di reti. L’idea principale è quella di sfruttare l’alta densità di reti wireless disponibili sviluppando dei meccanismi di condivisione virtuosa che permettano una gestione delle risorse dinamiche volte a creare un’architettura che si auto-organizzi in base al contesto. Una volta realizzata, consentirà agli utenti di generare una rete wireless attraverso i loro dispositivi ULOOP permettendo da un lato di accedere ad Internet sostituendosi all’”ultimo miglio” e dall’altro di offrire e usufruire vicendevolmente di servizi attraverso i propri device, come ad esempio un local-loop attivato in base a ciò che una comunità di individui (utenti finali) desidera condividere (informazioni, dati, periferiche). Collaborazione sospinta da incentivi alla cooperazione e buone regole di comportamento il sui supporto sarà integrato direttamente al livello della piattaforma.
Gli usi previsti di ULOOP sono stati ipotizzati e raccolti in due casi d’uso specifici, ciascuno dei quali prevede degli Scenari rappresentativi che illustrano, in modo dettagliato, il modo in cui funzionerà questa tecnologia.  Il primo caso d’uso, da qui ULOOP1, riguarda in particolare gli aspetti legati alle potenzialità della tecnologia come ad esempio l’estensione della copertura offerta dal wireless e lo scambio di servizi e di dati tra utenti equipaggiati con dispositivi ULOOP. Il secondo caso d’uso, da qui ULOOP2,  si basa sulle caratteristiche del primo e prevede lo sviluppo di una connessione locale, legata alla compresenza degli utenti in un’area definita, in grado di adattarsi al contesto e alle necessità degli utenti stessi, fornendo così una piattaforma di scambio di dati e informazioni basata su un modello collaborativo.
Vediamo brevemente le scene rappresentative di ogni caso d’uso:
ULOOP 1
Scenario 1.1 Estensione della copertura a banda larga:
Interfacciando i dispositivi U-Loop gli utenti saranno in grado di configurarsi come nodi connessione alla rete espandendone la copertura o di sfruttare la disponibilità offerta in questo senso da un altro utente.
Scenario1.2 Offloading 3G: 
Secondo lo stesso principio parte del traffico che normalmente viene consumato sulla rete 3G potrà essere trasferito e smaltito attraverso U-Loop.
Scenario1.3 Comunicazioni intra-U-Loop: In uno spazio definito,  gli utenti possono creare reti ad-hoc per condividere informazioni internamente senza utilizzare la connessione ad internet, risparmiando batteria e costi di connessione;
Scenario1.4 Bilanciamento e adattamento del carico:
sovraccarichi della rete in termini di numeri d’accesso saranno gestiti dal sistema in modo da consentire una velocità di connessione ottimale per ogni utente;
Scenario1.5 Controllo d’accesso basato sulla fiducia:
I permessi di aggancio tra un device e l’altro verranno gestiti automaticamente dal sistema in base alle “credenziali” degli utenti, tracciate anche attraverso le relazioni stabilite sui social network. Questo potrà essere un meccanismo auto-regolatore del comportamento: feedback positivi renderanno più facile l’accesso ad altri device mentre feedback negativi renderanno più difficile la connessione;
Scenario1.6 Supporto di responsabilità:
Controllo della responsabilità delle azioni connesse, consentendo l’accesso ai servizi attraverso il proprio device si avrà la certezza che azioni scorrette compiute da altri non saranno attribuite a chi ha permesso la connessione.
ULOOP 2
Scenario 2.1 Monitoraggio collaborativo:
gli utenti collaborano nella raccolta e ri-diffusione di dati e informazioni riguardo all’ambiente, realizzando così un monitoraggio collaborativo di situazioni contingenti (pericoli, attività);
Scenario 2.2 Advertising di prossimità: 
invio e ricezione di comunicazioni commerciali riferite al contesto;
Scenario 2.3 Servizi turistici di comunità:
condivisione di informazioni turistiche sui luoghi in cui ci si trova;
Scenario 2.4 Individuazione collaborativa di attacchi:
comportamenti anormali o dannosi di altri utenti possono essere tracciati e individuati attraverso azioni collaborative;
Scenario 2.5 Coordinamento di attività di gruppo:
che non necessitano di una connessione ad internet, e che avvengono in quel momento. Si pensi a come ad esempio flash mob, eventi, lavori di gruppo;
Scenario 2.6 Condivisione di device:
come ad esempio stampanti, possono essere rese disponibili da alcuni utenti ad altri membri della community.
Il nostro compito sarà quello di occuparci degli aspetti connessi alla sostenibilità sociale. 
Questo progetto si propone dunque di esplorare il potenziale di un local-loop wireless basato su un modello centrato sull’utente, ed è sviluppato grazie ad una collaborazione interdisciplinare volta ad approfondirne gli impatti da diverse prospettive: tecnico, di business, legislativo e sociale.
Abbiamo deciso di partire da una domanda, implicitamente parte del programma di ricerca affidatoci, che orientasse la nostra attività: ULOOP è una tecnologia che ha una sostenibilità sociale? Si tratta di una domanda non facile che necessita, prima ancora di una risposta, di alcuni chiarimenti preliminari. Dobbiamo perciò innanzitutto chiederci cosa intendiamo con sostenibilità sociale di una tecnologia.
Sostenibilità sociale come mantenimento dell’equilibrio di un sistema
In una prima concettualizzazione di sostenibilità sociale ci è stata utile la tesi di laurea di Serena Canu “Just Greener. Teoria e pratica degli eventi sostenibili in italia” la quale presenta diverse prospettive sulla sostenibilità. L’idea di sostenibilità che emerge unisce due concetti: la prima definizione di sviluppo sostenibile data nel 1987 dal rapporto Brundtland (WCED, Brundtland G.H , Mansour  K.,  1987 common future,  Oxford University Press, Oxford, GB), e cioè di uno sviluppo incentrato non solo sulla crescita economica ma anche su un aumento del benessere generale, e l’idea di sostenibilità sviluppata da Alessandro Lanza (Lanza Alessandro, Lo sviluppo sostenibile, Il Mulino, Bologna, 1997 ) che vede come necessaria una gestione delle risorse che sia compatibile con le capacità di riproduzione delle stesse. Dunque come prima idea di sostenibilità possiamo considerare uno sviluppo inteso come aumento del benessere collettivo organizzato sulla base di una gestione delle risorse che non porti a sprechi né ad un esaurimento delle stesse.
Un secondo concetto che può tornarci utile è quello di impronta ecologica secondo cui il comportamento di ognuno ha un impatto sull’ambiente ed è perciò responsabilità del singolo regolare il proprio modo di agire per rendere il suo impatto inquinante il più basso possibile.
Infine, un ulteriore punto di vista ci è offerto, sempre facendo riferimento alla tesi di Canu, da Serge Latouche il quale propone un modello basato sulla decrescita (Latouche Serge, Breve trattato sulla decrescita serena, Bollati Boringhieri, Torino, 2008) e cioè su una diminuzione dei consumi e su una migliore gestione delle risorse. Su questa base Latouche rimodella anche il concetto di impronta ecologica: descrivendola come un adeguamento dei consumi di ogni singolo individuo basato non più sulla quantità di inquinamento prodotto, bensì sulle risorse che l’ambiente ha a disposizione per ognuno. Questa nuova idea di sostenibilità ambientale può essere sviluppata, secondo Latouche, in un percorso che prevede otto tappe di cambiamento tra loro interdipendenti.
Possiamo a questo punto chiederci se i modi di utilizzo previsti da ULOOP rispettino le caratteristiche di sostenibilità citate e tracciare così le prime ipotesi sulla sostenibilità sociale di ULOOP.
Ciò che emerge dalla descrizione dei casi d’uso di ULOOP è l’idea di  una tecnologia il cui funzionamento si basa su una nuova concezione dell’utente, visto come nodo attivo della rete che contribuisce, mettendo a disposizione della collettività il proprio dispositivo per migliorare la gestione di risorse quali l’estensione di banda, la potenza di calcolo, l’utilizzo di memoria o energia, a sviluppare un sistema dinamico che sia in grado di adattarsi alle esigenze degli individui in relazione al contesto (luogo e momento di utilizzo). Il punto di forza di ULOOP  sta nella capacità del sistema di trasferire le risorse tra gli utenti in modo tale che, chi vuole, può permettere ad altri di utilizzare risorse a lui non necessarie in quel momento.
Forse a qualcuno, leggendo questa descrizione, sarà venuto in mente il progetto FON. Siete sulla buona strada perché proprio FON è uno dei partner del progetto ULOOP.
Possiamo rintracciare in questa modalità di funzionamento un sistema in grado di gestire le proprie risorse in maniera ottimale per il benessere della collettività. Un sistema che ha forti similitudini con quegli aspetti dello sviluppo sostenibile sopra evidenziati dalle teorie della sostenibilità.
Alcuni dei servizi offerti da ULOOP sembrano incarnare quelle tappe descritte da Latouche (ibidem). Un esempio è quella che l’autore chiama Rivalutazione:  e cioè la “rivalutazione di valori oggi sopraffatti”  come può essere la condivisione di risorse senza scopo di lucro. Oppure la Riconcettualizzazione e la Ridistribuzione: tappe basate sulla “ristrutturazione dei rapporti sociali e ridistribuzione delle ricchezze”, con ULOOP si può infatti mettere a disposizione il contributo del proprio device e ottimizzare il consumo di banda o di batteria agendo anche in un’ottica di Riduzione dei consumi. Ancora, possiamo considerare la Rilocalizzazione: per cui “movimenti di merci e capitali devono essere limitati all’indispensabile”, ULOOP consente uno scambio di informazioni che riguardano l’area in cui gli utenti si trovano in un determinato momento (ad esempio informazioni turistiche, di traffico o commerciali)  senza dover ricorrere ad una connessione ad internet.
ULOOP come comunità in cui emerge capitale sociale
Lo scambio reciproco di risorse e servizi che avviene tra utenti, e tra utente e sistema, può essere osservato anche attraverso il concetto di capitale sociale. Come espresso da Portes (Portes Alejandro, SOCIAL CAPITAL: Its Origins and Applications in Modern Sociology Annu. Rev. Sociol. 1998. p.1-24) il capitale sociale è la capacità di ottenere vantaggi attraverso l’appartenenza a reti e ad altre strutture sociali per cui per

possedere capitale sociale una persona deve essere relazionata ad altre, e sono quegli altri, e non lui stesso, a costituire la fonte di suoi vantaggi (ibidem, p.6).

Riportando la definizione di Bourdieu di capitale sociale e cioè

l’aggregato delle risorse attuali e potenziali legate al possesso di una rete di relazioni di reciproca conoscenza (…), in cui i vantaggi che derivano dall’appartenenza ad un gruppo sono le basi della solidarietà che lo rende possibile (Bourdieu 1985, p. 248)

l’autore evidenzia come il capitale sociale sia scomponibile in due elementi: la relazione sociale che permette agli individui di ottenere l’accesso alle risorse possedute da altri e la quantità e la qualità delle risorse in sé.
Le caratteristiche proprie di ULOOP lo rendono un luogo dinamico all’interno del quale diversi attori interagiscono per usufruire di una rete di risorse e servizi, fornendo a loro volta un servizio. ULOOP si configura, dunque, come una rete di relazioni da cui emerge capitale sociale.
Il lavoro di Portes ci aiuta anche nel tentativo di comprendere le motivazioni per cui i membri di ULOOP, dovrebbero rendere disponibili le proprie risorse a vantaggio di altri. Secondo l’autore le motivazioni di chi, attraverso il proprio contributo, fornisce ad altri l’accesso alle risorse possono essere distinte in due generi: consumatorie strumentali.
Le prime riguardano gli individui che provano senso di comunità e di appartenenza nei confronti dell’ambiente in cui agiscono, per questo saranno ben disposti nell’aiutare gli altri membri della comunità e a rispettare le regole condivise.
Le seconde vedono gli individui affidarsi al funzionamento della comunità come garanzia del fatto che saranno ripagati del loro contributo, sia in termini di restituzione del servizio o della risorsa, sia in termini di acquisizione di uno status onorevole che riscuote approvazione dalla comunità.
Alla base di questi meccanismi c’è la percezione di appartenenza ad una comunità sulla quale si struttura da un lato la bounded solidarity per cui l’identificazione con il proprio gruppo spinge a contribuire al suo benessere favorendo l’iniziativa reciproca, cortocircuitando il fenomeno del free riding (Coleman 1990, pp.273; Portes & Sensenbrenner 1993); dall’altro una enforceable trust secondo cui l’appartenenza comune ad una stessa comunità è garanzia che il proprio contributo verrà ripagato con un riconoscimento da parte della comunità e che il debito verrà ripagato.
Questi concetti possono aiutarci ad approfondire l’analisi già intrapresa (ULOOP, White Paper 03, p.5) sull’inserimento degli utenti di ULOOP nella catena del valore, per cui ogni utente in essa coinvolto deve trarre vantaggio dall’uso di ULOOP in modo da essere motivato alla partecipazione supportandone così il funzionamento.
In particolare l’analisi evidenzia diverse forme di incentivi alla partecipazione e cioè: vantaggi immediati forniti dalla partecipazione ad uno scenario; il coinvolgimento nella catena del valore per cui gli attori coinvolti devono beneficiare da ULOOP in modo da essere motivati ad attivare e supportare le caratteristiche di ULOOP; il “role swapping per cui gli eventuali svantaggi sofferti in una situazione verranno ricompensati da vantaggi ottenuti in altre situazioni; l’acquisizione di una reputazione basata sul comportamento tenuto in ULOOP e la possibilità di monetarizzazione, ovvero l’accumulazione di crediti spendibili nella catena del valore.
Sostenibilità sociale come raggiungimento di una massa critica
Un altro modo di interrogarci sulla sostenibilità sociale di ULOOP nella nostra ricerca ha a che fare con il raggiungimento della massa critica, e cioè il raggiungimento di un numero di utenti tale da permettere alla rete ULOOP di autoalimentarsi e di sostenersi.
<< La sostenibilità socio-economica di una rete ULOOP dipende dalla diffusione dei devices abilitati ULOOP che, a sua volta, dipende dalla capacità del modello di attirare le persone. Così, l’analisi di sostenibilità deve cominciare dalle caratteristiche chiave di ULOOP, che possono essere percepite come valore aggiunto dai giocatori coinvolti nel modello>> (White Paper on ULOOP Socio-Economics).
La diffusione dei device abilitati, al momento non è quantificabile essendo ULOOP una tecnologia in fase di progettazione, ma viene ipotizzata analizzando i requisiti di penetrazione necessari al funzionamento del modello. Per ognuno dei casi d’uso analizzati nel report sono stati individuati dei requisiti di penetrazione che ipotizzassero la quantità di minima, target (ottimale) e motivazionale (che stimoli la partecipazione e che invogli altri attori ad utilizzare ULOOP)  di device raggiungibili da ogni nodo della rete, necessari al funzionamento del modello.
La densità degli utenti che utilizzano ULOOP, dunque, influenza le sue possibilità di funzionamento e, di conseguenza, anche la sua qualità. Il raggiungimento di una densità motivazionale, ad esempio, può invogliare altri utenti ad attivarsi, aggiungendo così un nuovo nodo potenzialmente attivo alla rete. Inoltre, più nodi potenzialmente attivi si aggiungono alla rete, più il valore aggiunto percepito dagli utenti aumenta (si pensi a come cresce il valore di un social network con il crescere delle persone che lo utilizzano).
Possiamo così richiamare il concetto di network effect. In particolare ciò che ci interessa è l’accezione che ne dà la legge di Metcalfe secondo cui il valore di una rete è proporzionale al quadrato degli utenti della rete stessa. Il network effect, però, si sviluppa solo dopo che il numero di adesioni ha superato una certa soglia, detta massa critica.
In questo senso un’altra domanda di ricerca potrebbe essere: quali tecnologie hanno raggiunto una massa criticaQuali sono le caratteristiche che hanno in comune e hanno consentito loro di raggiungere una massa critica? E’ possibile rintracciare queste caratteristiche anche in ULOOP?
Una delle tecnologie prese in considerazione è la connessione ad internet da mobile. Secondo l’analisi di Nielsen Media (Critical Mass, The Worldwide state of the Mobile web, Nielsen Mobile, 2008), l’utilizzo di Internet da dispositivo mobile ha raggiunto una massa critica di utenti attraverso una confluenza di fattori che hanno portato ad un  miglioramento dell’esperienza di Internet da parte degli utenti, fattori  tra cui spiccano  la velocità delle reti e la disponibilità dei contenuti .
Un altro confronto utile potrebbe rivelarsi quello con Apple iPhone. Lo stesso studio di Nielsen rivela che sebbene nell’anno in cui è stato svolto lo studio iPhone fosse ancora agli esordi, l’82% di possessori di iPhone lo utilizzavano per collegarsi ad Internet. Il rapporto degli utenti con iPhone ha migliorato l’esperienza degli utenti con i device mobili, creando nuove aspettative di esperienza nell’uso di un device per collegarsi alla rete in merito alla sua usabilità e allapossibilità di condividere informazioni geolocalizzate e in tempo reale.
Miglioramento dell’esperienza nei confronti e grazie alla tecnologia, velocità, mobilità, disponibilità di contenuti e di informazioni sensibili al contesto. Caratteristiche queste che sono alla base del funzionamento dei dispositivi ULOOP: garantisce un trasferimento di dati veloce in quanto sfrutta tutte le risorse disponibili per la condivisione dei dati; consente, attraverso il bilanciamento del carico di traffico, di evitare eventuali sovraccarichi di rete e, dunque, rallentamenti; si adatta al contesto nel funzionamento in generale, nella reperibilità di servizi e nella raccolta e diffusione di informazioni.
Queste considerazioni fanno emergere un altro interrogativo per la nostra ricerca: perché si dovrebbe usare una tecnologia come ULOOP dal momento che ne esistano già di simili largamente usate? Quali sono le caratteristiche che potrebbero spingere gli utenti all’utilizzo di ULOOP?
ULOOP si differenzia da tutte le altre tecnologie nella possibilità offerta agli utenti di sviluppare local loop wireless in maniera autonoma e semplice. Come introdotto nel White Paper 01, la tecnologia di ULOOP sfrutta il recente successo di tecnologie come il Wi-Fi ponendosi come anello di passaggio nella diffusione della rete dal Wi-Fi all’utente finale.  La flessibilità del Wi-Fi sta dando nuove possibilità di connessione alla rete internet, soprattutto nello sviluppo di tecnologie che permettono all’utente di diventare un nodo attivo nella catena di distribuzione della connettività (vedi appunto FON).
Attraverso i device abilitati ULOOP gli utenti possono creare delle reti collegandosi tra di loro, anche in maniera indipendente dalla rete Internet;  oppure legate ad essa agendo come suo diretto punto di espansione della portata. Questo consente da un lato una maggiore fluidità e semplicità nello scambio di dati e informazioni e dall’altro un’estensione della  portata della rete ad un costo ridotto.
La flessibilità e la libertà offerte nella creazione di reti mettono in evidenza un altro tratto unico di ULOOP e cioè lapossibilità di sviluppare una architettura di rete “Fai-Da-Te”, caratterizzata da una infrastruttura altamente dinamica e adattabile al contesto d’uso.
Analizzando a fondo le scene rappresentative dei casi d’uso e confrontandole con tecnologie già esistenti che offrono servizi simili potremmo comprendere meglio l’unicità e l’attrattività di ULOOP dal punto di vista dell’utente. Per fare questo ci concentreremo in particolare sul caso d’uso ULOOP2 in quanto descrive effettivi comportamenti di utilizzo di ULOOP tra utenti che possono essere riscontrate anche in altre tecnologie.
Scenario 2.1 Collaborative monitoring:
attraverso ULOOP si può sviluppare un controllo sull’ambiente in tempo reale e collaborativo, in modo da fornire ad altri utenti informazioni il più possibile dettagliate. Questa caratteristica può essere confrontata con applicazioni iPhone, o più in generale per smartphone, per il controllo del traffico in tempo reale come ad esempio Wikango e Waze.
Scenario 2.2 Advertising di Prossimità:
 
e le sue potenzialità possono essere confrontate  con i check-in di foursquare oppure i facebookdeals.
Scenario 2.3 Servizi turistici alla comunità:
prevede una condivisione di informazioni turistiche all’interno della rete creata ad hoc da turisti che si trovano in una stessa zona o dagli abitanti locali per agevolare la presenza dei turisti nel territorio. Questo tipo di funzionalità può essere paragonato con applicazioni per smartphone come ad esempio TripWolf che consente di avere informazioni contestualizzate in base alla propria localizzazione e permette di scaricarle per poterle consultare offline in modo da non consumare tropo traffico in roaming nel caso di un viaggio all’estero;
Già a questo punto si può delineare una prima fondamentale differenza: tutti questi servizi sono offerti oggi attraverso delle applicazioni realizzate appositamente da diversi soggetti, che devono essere ricercate e installate sul proprio dispositivo, mentre su un dispositivo ULOOP sono delle funzionalità integrate nel modo di funzionamento della tecnologia stessa.
Scenario 2.4 Individuazione di attacchi alla rete attraverso la cooperazione:
per comprendere come questi meccanismi sociali lavorano e come potrebbero funzionare su ULOOP si è pensato di analizzare e confrontarli con i sistemi che si sviluppano negli ambienti peer-to-peer, come ad esempio Wikipedia, dove il gruppo punisce e isola quei soggetti che sfruttano il sistema senza contribuire o che addirittura lo danneggiano. Parte di questa analisi è stata già sviluppata attraverso l’analisi della catena di valore e dei meccanismi di incentivo che emergono nei modelli di interazione tra i soggetti ULOOP.
Scenario 2.5 Coordinamento di attività di gruppo:
questa Scenario rappresentativo racchiude in realtà molte possibilità di utilizzo. A partire da attività di gruppo di tipo lavorativo o di studio, fino ad attività di social networking senza la necessità di una rete internet. L’utilizzo più interessante e stimolante è però quello di poter creare un coordinamento di attività di gruppo just-in-time che sia indipendente dall’accesso alla rete, in particolare per analizzare questa caratteristica prenderemo in considerazione il caso delle manifestazioni in Egitto e il problema dell’accesso alla rete negato dalle autorità.
Scenario 2.6 Condivisione di Device:
 Attraverso i dispositivi ULOOP sarà più semplice condividere dati e informazioni, ma anche periferiche. Penseremo alle difficoltà che si riscontrano nel tentativo di una condivisione tra due pc connessi tramite wi-fi e vedremo in che modo i dispositivi ULOOP possono differenziarsi in questi utilizzi.
Primi approcci teorici: alcuni chiarimenti
La ricerca su ULOOP è veramente complessa e sfaccettata, pertanto questi sono gli interrogativi iniziali che guideranno la nostra ricerca ma data la vastità degli argomenti toccati e delle possibilità offerte da questa nuova tecnologia sicuramente emergeranno nuovi interrogativi e nuove vie da esplorare.
È necessario a questo punto fare una ulteriore considerazione. Lo sviluppo e l’evoluzione e di una tecnologia possono essere ipotizzati e tracciati in base alle caratteristiche della tecnologia e alle ipotesi di utilizzo ma, come ci suggerisce l’approccio del Social Shaping of Technologies (Williams R., Edge D. The social shaping of technology, in Research Policy vol. 25, 1996)  la natura delle tecnologie e la direzione del loro cambiamento non è predeterminata in modo lineare, né  hanno necessariamente un “impatto” determinato sulla vita sociale ed economica. L’idea di fondo  è che la creazione e l’implementazione della tecnologia è modellata da un ampio numero di fattori organizzativi, politici, economici e sociali. Il Social Shaping of Technologies (SST) non è un modello teorico unitario, ma un approccio emergente da diversi filoni di ricerca i quali condividono alcune idee di fondo, a partire dal concetto di tecnologia stesso. Secondo l’approccio SST la tecnologia non è una “scatola nera inconoscibile” né un “equipaggiamento” che viene progettato e creato in risposta ad una necessità, collocato in un ambiente e poi spinto fino alla sua adozione da parte degli utenti. La tecnologia, invece, incorpora modelli socio-economici che devono essere svelati e analizzati, sia nel contenuto sia nei suoi processi di evoluzione e innovazione.
La tecnologia è vista come un <<fenomeno inclusivo>> (ibidem, p.868) il cui processo di sviluppo procede grazie all’interazione e alla tensione continua tra elementi tecnici e sociali. Per parlare di tecnologia e del suo sviluppo è necessario, dunque, considerare tutte quelle istituzioni, assetti e organizzazioni all’interno dei quali ha luogo l’adozione, la configurazione e l’utilizzo della tecnologia. In questo insieme di fattori devono essere incluse la conoscenza e l’expertise che l’hanno creata e che si incorporano in essa, e il processo di apprendimento e di esperienza che si sviluppa nell’uso della tecnologia stessa.
Questo approccio si concentra, inoltre, sul concetto di scelta che influenza tutti i passaggi nella creazione di una tecnologia dall’ideazione, alla progettazione, alla commercializzazione all’uso. Possiamo pensare alla tecnologia come un <<giardino di traiettorie che si biforcano>> (ibid. p857) e ogni scelta compiuta da ogni attore sociale può portare a diversi esiti e a diverse implicazioni per la società e per i gruppi sociali che la usano nel suo processo di evoluzione. Questo apre a due questioni che riguardano la negoziabilità e la irreversibilità.
1. La negoziabilità riguarda lo scopo per cui alcuni gruppi sociali forzano la forma delle tecnologie per i loro fini (si pensi alla nascita dell’e-mail, in seguito alla trasformazione del modo d’uso della tecnologia di connessione sviluppata da ARPANET).
2. L’irreversibilità riguarda il radicamento di certi usi che preclude la possibilità di sviluppi diversi o alternativi di quella tecnologia.
E’ importante, inoltre, osservare il modo in cui la tecnologia si diffonde, obiettivo questo della “Teoria della diffusione delle innovazioni” (Si veda su questo il contributo di Leah A. Lievrouw, Progettazione e sviluppo dei new media: diffusione delle innovazioni e modellamento sociale della tecnologia nell’edizione italiana del manuale Capire i New Media. Culture, comunicazione, innovazione tecnologica e istituzioni sociali e anche le slide realizzate da Davide Bennato sul tema) sviluppata da Rogers e che

pone particolare attenzione alle relazioni comunicative e ai flussi di informazione che promuovono l’adozione e l’implementazione di una tecnologia

Secondo questa teoria, infatti le reti di relazioni e i significati condivisi modellano l’azione sociale, inclusa l’adozione della tecnologia ed è importante tenerne conto soprattutto in quelle tecnologie che si sviluppano su modelli informatici di comunicazione.
Dal momento che U-Loop è una tecnologia altamente flessibile e che offre innovativi modi di interazione tra utenti e tra utenti e ambiente, sarà necessario un livello di analisi che vada oltre l’idea di “previsione dell’impatto sociale” e che, piuttosto, ponga attenzione ai modi in cui la tecnologia evolve sia in fase di progettazione sia in fase di adozione, non per anticipare ma per comprenderne al meglio gli sviluppi possibili e futuri.
Quanto detto fin qui raccoglie le prime domande e le prime considerazioni che orienteranno la nostra attività di ricerca su ULOOP.
Per le risposte dovrete attendere necessariamente i post successivi 🙂Questo post è il primo di una serie di articoli curati da Erica Giambitto e dedicati al progetto ULOOP.
Inizia  il nostro lavoro di ricerca nell’ambito del progetto ULOOP (User-centric Wireless Local Loop), che sarà principalmente orientato all’analisi della sostenibilità socio-economica di questa nuova tecnologia, e più in generale, ai suoi possibili impatti sociali.
ULOOP è un progetto triennale finanziato dall’Unione Europea nell’ambito del settimo programma quadro. Per l’Università di Urbino coordina il team interdisciplinare che lavora al progetto il Prof. Alessandro Bogliolo.
Che cos’è ULOOP
Come suggerisce il nome “User-centric Wireless Local Loop” ULOOP è una tecnologia che coinvolge l’utente nella creazione di reti. L’idea principale è quella di sfruttare l’alta densità di reti wireless disponibili sviluppando dei meccanismi di condivisione virtuosa che permettano una gestione delle risorse dinamiche volte a creare un’architettura che si auto-organizzi in base al contesto. Una volta realizzata, consentirà agli utenti di generare una rete wireless attraverso i loro dispositivi ULOOP permettendo da un lato di accedere ad Internet sostituendosi all’”ultimo miglio” e dall’altro di offrire e usufruire vicendevolmente di servizi attraverso i propri device, come ad esempio un local-loop attivato in base a ciò che una comunità di individui (utenti finali) desidera condividere (informazioni, dati, periferiche). Collaborazione sospinta da incentivi alla cooperazione e buone regole di comportamento il sui supporto sarà integrato direttamente al livello della piattaforma.
Gli usi previsti di ULOOP sono stati ipotizzati e raccolti in due casi d’uso specifici, ciascuno dei quali prevede degli Scenari rappresentativi che illustrano, in modo dettagliato, il modo in cui funzionerà questa tecnologia.  Il primo caso d’uso, da qui ULOOP1, riguarda in particolare gli aspetti legati alle potenzialità della tecnologia come ad esempio l’estensione della copertura offerta dal wireless e lo scambio di servizi e di dati tra utenti equipaggiati con dispositivi ULOOP. Il secondo caso d’uso, da qui ULOOP2,  si basa sulle caratteristiche del primo e prevede lo sviluppo di una connessione locale, legata alla compresenza degli utenti in un’area definita, in grado di adattarsi al contesto e alle necessità degli utenti stessi, fornendo così una piattaforma di scambio di dati e informazioni basata su un modello collaborativo.
Vediamo brevemente le scene rappresentative di ogni caso d’uso:
ULOOP 1
Scenario 1.1 Estensione della copertura a banda larga:
Interfacciando i dispositivi U-Loop gli utenti saranno in grado di configurarsi come nodi connessione alla rete espandendone la copertura o di sfruttare la disponibilità offerta in questo senso da un altro utente.
Scenario1.2 Offloading 3G: 
Secondo lo stesso principio parte del traffico che normalmente viene consumato sulla rete 3G potrà essere trasferito e smaltito attraverso U-Loop.
Scenario1.3 Comunicazioni intra-U-Loop: In uno spazio definito,  gli utenti possono creare reti ad-hoc per condividere informazioni internamente senza utilizzare la connessione ad internet, risparmiando batteria e costi di connessione;
Scenario1.4 Bilanciamento e adattamento del carico:
sovraccarichi della rete in termini di numeri d’accesso saranno gestiti dal sistema in modo da consentire una velocità di connessione ottimale per ogni utente;
Scenario1.5 Controllo d’accesso basato sulla fiducia:
I permessi di aggancio tra un device e l’altro verranno gestiti automaticamente dal sistema in base alle “credenziali” degli utenti, tracciate anche attraverso le relazioni stabilite sui social network. Questo potrà essere un meccanismo auto-regolatore del comportamento: feedback positivi renderanno più facile l’accesso ad altri device mentre feedback negativi renderanno più difficile la connessione;
Scenario1.6 Supporto di responsabilità:
Controllo della responsabilità delle azioni connesse, consentendo l’accesso ai servizi attraverso il proprio device si avrà la certezza che azioni scorrette compiute da altri non saranno attribuite a chi ha permesso la connessione.
ULOOP 2
Scenario 2.1 Monitoraggio collaborativo:
gli utenti collaborano nella raccolta e ri-diffusione di dati e informazioni riguardo all’ambiente, realizzando così un monitoraggio collaborativo di situazioni contingenti (pericoli, attività);
Scenario 2.2 Advertising di prossimità: 
invio e ricezione di comunicazioni commerciali riferite al contesto;
Scenario 2.3 Servizi turistici di comunità:
condivisione di informazioni turistiche sui luoghi in cui ci si trova;
Scenario 2.4 Individuazione collaborativa di attacchi:
comportamenti anormali o dannosi di altri utenti possono essere tracciati e individuati attraverso azioni collaborative;
Scenario 2.5 Coordinamento di attività di gruppo:
che non necessitano di una connessione ad internet, e che avvengono in quel momento. Si pensi a come ad esempio flash mob, eventi, lavori di gruppo;
Scenario 2.6 Condivisione di device:
come ad esempio stampanti, possono essere rese disponibili da alcuni utenti ad altri membri della community.
Il nostro compito sarà quello di occuparci degli aspetti connessi alla sostenibilità sociale. 
Questo progetto si propone dunque di esplorare il potenziale di un local-loop wireless basato su un modello centrato sull’utente, ed è sviluppato grazie ad una collaborazione interdisciplinare volta ad approfondirne gli impatti da diverse prospettive: tecnico, di business, legislativo e sociale.
Abbiamo deciso di partire da una domanda, implicitamente parte del programma di ricerca affidatoci, che orientasse la nostra attività: ULOOP è una tecnologia che ha una sostenibilità sociale? Si tratta di una domanda non facile che necessita, prima ancora di una risposta, di alcuni chiarimenti preliminari. Dobbiamo perciò innanzitutto chiederci cosa intendiamo con sostenibilità sociale di una tecnologia.
Sostenibilità sociale come mantenimento dell’equilibrio di un sistema
In una prima concettualizzazione di sostenibilità sociale ci è stata utile la tesi di laurea di Serena Canu “Just Greener. Teoria e pratica degli eventi sostenibili in italia” la quale presenta diverse prospettive sulla sostenibilità. L’idea di sostenibilità che emerge unisce due concetti: la prima definizione di sviluppo sostenibile data nel 1987 dal rapporto Brundtland (WCED, Brundtland G.H , Mansour  K.,  1987 common future,  Oxford University Press, Oxford, GB), e cioè di uno sviluppo incentrato non solo sulla crescita economica ma anche su un aumento del benessere generale, e l’idea di sostenibilità sviluppata da Alessandro Lanza (Lanza Alessandro, Lo sviluppo sostenibile, Il Mulino, Bologna, 1997 ) che vede come necessaria una gestione delle risorse che sia compatibile con le capacità di riproduzione delle stesse. Dunque come prima idea di sostenibilità possiamo considerare uno sviluppo inteso come aumento del benessere collettivo organizzato sulla base di una gestione delle risorse che non porti a sprechi né ad un esaurimento delle stesse.
Un secondo concetto che può tornarci utile è quello di impronta ecologica secondo cui il comportamento di ognuno ha un impatto sull’ambiente ed è perciò responsabilità del singolo regolare il proprio modo di agire per rendere il suo impatto inquinante il più basso possibile.
Infine, un ulteriore punto di vista ci è offerto, sempre facendo riferimento alla tesi di Canu, da Serge Latouche il quale propone un modello basato sulla decrescita (Latouche Serge, Breve trattato sulla decrescita serena, Bollati Boringhieri, Torino, 2008) e cioè su una diminuzione dei consumi e su una migliore gestione delle risorse. Su questa base Latouche rimodella anche il concetto di impronta ecologica: descrivendola come un adeguamento dei consumi di ogni singolo individuo basato non più sulla quantità di inquinamento prodotto, bensì sulle risorse che l’ambiente ha a disposizione per ognuno. Questa nuova idea di sostenibilità ambientale può essere sviluppata, secondo Latouche, in un percorso che prevede otto tappe di cambiamento tra loro interdipendenti.
Possiamo a questo punto chiederci se i modi di utilizzo previsti da ULOOP rispettino le caratteristiche di sostenibilità citate e tracciare così le prime ipotesi sulla sostenibilità sociale di ULOOP.
Ciò che emerge dalla descrizione dei casi d’uso di ULOOP è l’idea di  una tecnologia il cui funzionamento si basa su una nuova concezione dell’utente, visto come nodo attivo della rete che contribuisce, mettendo a disposizione della collettività il proprio dispositivo per migliorare la gestione di risorse quali l’estensione di banda, la potenza di calcolo, l’utilizzo di memoria o energia, a sviluppare un sistema dinamico che sia in grado di adattarsi alle esigenze degli individui in relazione al contesto (luogo e momento di utilizzo). Il punto di forza di ULOOP  sta nella capacità del sistema di trasferire le risorse tra gli utenti in modo tale che, chi vuole, può permettere ad altri di utilizzare risorse a lui non necessarie in quel momento.
Forse a qualcuno, leggendo questa descrizione, sarà venuto in mente il progetto FON. Siete sulla buona strada perché proprio FON è uno dei partner del progetto ULOOP.
Possiamo rintracciare in questa modalità di funzionamento un sistema in grado di gestire le proprie risorse in maniera ottimale per il benessere della collettività. Un sistema che ha forti similitudini con quegli aspetti dello sviluppo sostenibile sopra evidenziati dalle teorie della sostenibilità.
Alcuni dei servizi offerti da ULOOP sembrano incarnare quelle tappe descritte da Latouche (ibidem). Un esempio è quella che l’autore chiama Rivalutazione:  e cioè la “rivalutazione di valori oggi sopraffatti”  come può essere la condivisione di risorse senza scopo di lucro. Oppure la Riconcettualizzazione e la Ridistribuzione: tappe basate sulla “ristrutturazione dei rapporti sociali e ridistribuzione delle ricchezze”, con ULOOP si può infatti mettere a disposizione il contributo del proprio device e ottimizzare il consumo di banda o di batteria agendo anche in un’ottica di Riduzione dei consumi. Ancora, possiamo considerare la Rilocalizzazione: per cui “movimenti di merci e capitali devono essere limitati all’indispensabile”, ULOOP consente uno scambio di informazioni che riguardano l’area in cui gli utenti si trovano in un determinato momento (ad esempio informazioni turistiche, di traffico o commerciali)  senza dover ricorrere ad una connessione ad internet.
ULOOP come comunità in cui emerge capitale sociale
Lo scambio reciproco di risorse e servizi che avviene tra utenti, e tra utente e sistema, può essere osservato anche attraverso il concetto di capitale sociale. Come espresso da Portes (Portes Alejandro, SOCIAL CAPITAL: Its Origins and Applications in Modern Sociology Annu. Rev. Sociol. 1998. p.1-24) il capitale sociale è la capacità di ottenere vantaggi attraverso l’appartenenza a reti e ad altre strutture sociali per cui per

possedere capitale sociale una persona deve essere relazionata ad altre, e sono quegli altri, e non lui stesso, a costituire la fonte di suoi vantaggi (ibidem, p.6).

Riportando la definizione di Bourdieu di capitale sociale e cioè

l’aggregato delle risorse attuali e potenziali legate al possesso di una rete di relazioni di reciproca conoscenza (…), in cui i vantaggi che derivano dall’appartenenza ad un gruppo sono le basi della solidarietà che lo rende possibile (Bourdieu 1985, p. 248)

l’autore evidenzia come il capitale sociale sia scomponibile in due elementi: la relazione sociale che permette agli individui di ottenere l’accesso alle risorse possedute da altri e la quantità e la qualità delle risorse in sé.
Le caratteristiche proprie di ULOOP lo rendono un luogo dinamico all’interno del quale diversi attori interagiscono per usufruire di una rete di risorse e servizi, fornendo a loro volta un servizio. ULOOP si configura, dunque, come una rete di relazioni da cui emerge capitale sociale.
Il lavoro di Portes ci aiuta anche nel tentativo di comprendere le motivazioni per cui i membri di ULOOP, dovrebbero rendere disponibili le proprie risorse a vantaggio di altri. Secondo l’autore le motivazioni di chi, attraverso il proprio contributo, fornisce ad altri l’accesso alle risorse possono essere distinte in due generi: consumatorie strumentali.
Le prime riguardano gli individui che provano senso di comunità e di appartenenza nei confronti dell’ambiente in cui agiscono, per questo saranno ben disposti nell’aiutare gli altri membri della comunità e a rispettare le regole condivise.
Le seconde vedono gli individui affidarsi al funzionamento della comunità come garanzia del fatto che saranno ripagati del loro contributo, sia in termini di restituzione del servizio o della risorsa, sia in termini di acquisizione di uno status onorevole che riscuote approvazione dalla comunità.
Alla base di questi meccanismi c’è la percezione di appartenenza ad una comunità sulla quale si struttura da un lato la bounded solidarity per cui l’identificazione con il proprio gruppo spinge a contribuire al suo benessere favorendo l’iniziativa reciproca, cortocircuitando il fenomeno del free riding (Coleman 1990, pp.273; Portes & Sensenbrenner 1993); dall’altro una enforceable trust secondo cui l’appartenenza comune ad una stessa comunità è garanzia che il proprio contributo verrà ripagato con un riconoscimento da parte della comunità e che il debito verrà ripagato.
Questi concetti possono aiutarci ad approfondire l’analisi già intrapresa (ULOOP, White Paper 03, p.5) sull’inserimento degli utenti di ULOOP nella catena del valore, per cui ogni utente in essa coinvolto deve trarre vantaggio dall’uso di ULOOP in modo da essere motivato alla partecipazione supportandone così il funzionamento.
In particolare l’analisi evidenzia diverse forme di incentivi alla partecipazione e cioè: vantaggi immediati forniti dalla partecipazione ad uno scenario; il coinvolgimento nella catena del valore per cui gli attori coinvolti devono beneficiare da ULOOP in modo da essere motivati ad attivare e supportare le caratteristiche di ULOOP; il “role swapping per cui gli eventuali svantaggi sofferti in una situazione verranno ricompensati da vantaggi ottenuti in altre situazioni; l’acquisizione di una reputazione basata sul comportamento tenuto in ULOOP e la possibilità di monetarizzazione, ovvero l’accumulazione di crediti spendibili nella catena del valore.
Sostenibilità sociale come raggiungimento di una massa critica
Un altro modo di interrogarci sulla sostenibilità sociale di ULOOP nella nostra ricerca ha a che fare con il raggiungimento della massa critica, e cioè il raggiungimento di un numero di utenti tale da permettere alla rete ULOOP di autoalimentarsi e di sostenersi.
<< La sostenibilità socio-economica di una rete ULOOP dipende dalla diffusione dei devices abilitati ULOOP che, a sua volta, dipende dalla capacità del modello di attirare le persone. Così, l’analisi di sostenibilità deve cominciare dalle caratteristiche chiave di ULOOP, che possono essere percepite come valore aggiunto dai giocatori coinvolti nel modello>> (White Paper on ULOOP Socio-Economics).
La diffusione dei device abilitati, al momento non è quantificabile essendo ULOOP una tecnologia in fase di progettazione, ma viene ipotizzata analizzando i requisiti di penetrazione necessari al funzionamento del modello. Per ognuno dei casi d’uso analizzati nel report sono stati individuati dei requisiti di penetrazione che ipotizzassero la quantità di minima, target (ottimale) e motivazionale (che stimoli la partecipazione e che invogli altri attori ad utilizzare ULOOP)  di device raggiungibili da ogni nodo della rete, necessari al funzionamento del modello.
La densità degli utenti che utilizzano ULOOP, dunque, influenza le sue possibilità di funzionamento e, di conseguenza, anche la sua qualità. Il raggiungimento di una densità motivazionale, ad esempio, può invogliare altri utenti ad attivarsi, aggiungendo così un nuovo nodo potenzialmente attivo alla rete. Inoltre, più nodi potenzialmente attivi si aggiungono alla rete, più il valore aggiunto percepito dagli utenti aumenta (si pensi a come cresce il valore di un social network con il crescere delle persone che lo utilizzano).
Possiamo così richiamare il concetto di network effect. In particolare ciò che ci interessa è l’accezione che ne dà la legge di Metcalfe secondo cui il valore di una rete è proporzionale al quadrato degli utenti della rete stessa. Il network effect, però, si sviluppa solo dopo che il numero di adesioni ha superato una certa soglia, detta massa critica.
In questo senso un’altra domanda di ricerca potrebbe essere: quali tecnologie hanno raggiunto una massa criticaQuali sono le caratteristiche che hanno in comune e hanno consentito loro di raggiungere una massa critica? E’ possibile rintracciare queste caratteristiche anche in ULOOP?
Una delle tecnologie prese in considerazione è la connessione ad internet da mobile. Secondo l’analisi di Nielsen Media (Critical Mass, The Worldwide state of the Mobile web, Nielsen Mobile, 2008), l’utilizzo di Internet da dispositivo mobile ha raggiunto una massa critica di utenti attraverso una confluenza di fattori che hanno portato ad un  miglioramento dell’esperienza di Internet da parte degli utenti, fattori  tra cui spiccano  la velocità delle reti e la disponibilità dei contenuti .
Un altro confronto utile potrebbe rivelarsi quello con Apple iPhone. Lo stesso studio di Nielsen rivela che sebbene nell’anno in cui è stato svolto lo studio iPhone fosse ancora agli esordi, l’82% di possessori di iPhone lo utilizzavano per collegarsi ad Internet. Il rapporto degli utenti con iPhone ha migliorato l’esperienza degli utenti con i device mobili, creando nuove aspettative di esperienza nell’uso di un device per collegarsi alla rete in merito alla sua usabilità e allapossibilità di condividere informazioni geolocalizzate e in tempo reale.
Miglioramento dell’esperienza nei confronti e grazie alla tecnologia, velocità, mobilità, disponibilità di contenuti e di informazioni sensibili al contesto. Caratteristiche queste che sono alla base del funzionamento dei dispositivi ULOOP: garantisce un trasferimento di dati veloce in quanto sfrutta tutte le risorse disponibili per la condivisione dei dati; consente, attraverso il bilanciamento del carico di traffico, di evitare eventuali sovraccarichi di rete e, dunque, rallentamenti; si adatta al contesto nel funzionamento in generale, nella reperibilità di servizi e nella raccolta e diffusione di informazioni.
Queste considerazioni fanno emergere un altro interrogativo per la nostra ricerca: perché si dovrebbe usare una tecnologia come ULOOP dal momento che ne esistano già di simili largamente usate? Quali sono le caratteristiche che potrebbero spingere gli utenti all’utilizzo di ULOOP?
ULOOP si differenzia da tutte le altre tecnologie nella possibilità offerta agli utenti di sviluppare local loop wireless in maniera autonoma e semplice. Come introdotto nel White Paper 01, la tecnologia di ULOOP sfrutta il recente successo di tecnologie come il Wi-Fi ponendosi come anello di passaggio nella diffusione della rete dal Wi-Fi all’utente finale.  La flessibilità del Wi-Fi sta dando nuove possibilità di connessione alla rete internet, soprattutto nello sviluppo di tecnologie che permettono all’utente di diventare un nodo attivo nella catena di distribuzione della connettività (vedi appunto FON).
Attraverso i device abilitati ULOOP gli utenti possono creare delle reti collegandosi tra di loro, anche in maniera indipendente dalla rete Internet;  oppure legate ad essa agendo come suo diretto punto di espansione della portata. Questo consente da un lato una maggiore fluidità e semplicità nello scambio di dati e informazioni e dall’altro un’estensione della  portata della rete ad un costo ridotto.
La flessibilità e la libertà offerte nella creazione di reti mettono in evidenza un altro tratto unico di ULOOP e cioè lapossibilità di sviluppare una architettura di rete “Fai-Da-Te”, caratterizzata da una infrastruttura altamente dinamica e adattabile al contesto d’uso.
Analizzando a fondo le scene rappresentative dei casi d’uso e confrontandole con tecnologie già esistenti che offrono servizi simili potremmo comprendere meglio l’unicità e l’attrattività di ULOOP dal punto di vista dell’utente. Per fare questo ci concentreremo in particolare sul caso d’uso ULOOP2 in quanto descrive effettivi comportamenti di utilizzo di ULOOP tra utenti che possono essere riscontrate anche in altre tecnologie.
Scenario 2.1 Collaborative monitoring:
attraverso ULOOP si può sviluppare un controllo sull’ambiente in tempo reale e collaborativo, in modo da fornire ad altri utenti informazioni il più possibile dettagliate. Questa caratteristica può essere confrontata con applicazioni iPhone, o più in generale per smartphone, per il controllo del traffico in tempo reale come ad esempio Wikango e Waze.
Scenario 2.2 Advertising di Prossimità:
 
e le sue potenzialità possono essere confrontate  con i check-in di foursquare oppure i facebookdeals.
Scenario 2.3 Servizi turistici alla comunità:
prevede una condivisione di informazioni turistiche all’interno della rete creata ad hoc da turisti che si trovano in una stessa zona o dagli abitanti locali per agevolare la presenza dei turisti nel territorio. Questo tipo di funzionalità può essere paragonato con applicazioni per smartphone come ad esempio TripWolf che consente di avere informazioni contestualizzate in base alla propria localizzazione e permette di scaricarle per poterle consultare offline in modo da non consumare tropo traffico in roaming nel caso di un viaggio all’estero;
Già a questo punto si può delineare una prima fondamentale differenza: tutti questi servizi sono offerti oggi attraverso delle applicazioni realizzate appositamente da diversi soggetti, che devono essere ricercate e installate sul proprio dispositivo, mentre su un dispositivo ULOOP sono delle funzionalità integrate nel modo di funzionamento della tecnologia stessa.
Scenario 2.4 Individuazione di attacchi alla rete attraverso la cooperazione:
per comprendere come questi meccanismi sociali lavorano e come potrebbero funzionare su ULOOP si è pensato di analizzare e confrontarli con i sistemi che si sviluppano negli ambienti peer-to-peer, come ad esempio Wikipedia, dove il gruppo punisce e isola quei soggetti che sfruttano il sistema senza contribuire o che addirittura lo danneggiano. Parte di questa analisi è stata già sviluppata attraverso l’analisi della catena di valore e dei meccanismi di incentivo che emergono nei modelli di interazione tra i soggetti ULOOP.
Scenario 2.5 Coordinamento di attività di gruppo:
questa Scenario rappresentativo racchiude in realtà molte possibilità di utilizzo. A partire da attività di gruppo di tipo lavorativo o di studio, fino ad attività di social networking senza la necessità di una rete internet. L’utilizzo più interessante e stimolante è però quello di poter creare un coordinamento di attività di gruppo just-in-time che sia indipendente dall’accesso alla rete, in particolare per analizzare questa caratteristica prenderemo in considerazione il caso delle manifestazioni in Egitto e il problema dell’accesso alla rete negato dalle autorità.
Scenario 2.6 Condivisione di Device:
 Attraverso i dispositivi ULOOP sarà più semplice condividere dati e informazioni, ma anche periferiche. Penseremo alle difficoltà che si riscontrano nel tentativo di una condivisione tra due pc connessi tramite wi-fi e vedremo in che modo i dispositivi ULOOP possono differenziarsi in questi utilizzi.
Primi approcci teorici: alcuni chiarimenti
La ricerca su ULOOP è veramente complessa e sfaccettata, pertanto questi sono gli interrogativi iniziali che guideranno la nostra ricerca ma data la vastità degli argomenti toccati e delle possibilità offerte da questa nuova tecnologia sicuramente emergeranno nuovi interrogativi e nuove vie da esplorare.
È necessario a questo punto fare una ulteriore considerazione. Lo sviluppo e l’evoluzione e di una tecnologia possono essere ipotizzati e tracciati in base alle caratteristiche della tecnologia e alle ipotesi di utilizzo ma, come ci suggerisce l’approccio del Social Shaping of Technologies (Williams R., Edge D. The social shaping of technology, in Research Policy vol. 25, 1996)  la natura delle tecnologie e la direzione del loro cambiamento non è predeterminata in modo lineare, né  hanno necessariamente un “impatto” determinato sulla vita sociale ed economica. L’idea di fondo  è che la creazione e l’implementazione della tecnologia è modellata da un ampio numero di fattori organizzativi, politici, economici e sociali. Il Social Shaping of Technologies (SST) non è un modello teorico unitario, ma un approccio emergente da diversi filoni di ricerca i quali condividono alcune idee di fondo, a partire dal concetto di tecnologia stesso. Secondo l’approccio SST la tecnologia non è una “scatola nera inconoscibile” né un “equipaggiamento” che viene progettato e creato in risposta ad una necessità, collocato in un ambiente e poi spinto fino alla sua adozione da parte degli utenti. La tecnologia, invece, incorpora modelli socio-economici che devono essere svelati e analizzati, sia nel contenuto sia nei suoi processi di evoluzione e innovazione.
La tecnologia è vista come un <<fenomeno inclusivo>> (ibidem, p.868) il cui processo di sviluppo procede grazie all’interazione e alla tensione continua tra elementi tecnici e sociali. Per parlare di tecnologia e del suo sviluppo è necessario, dunque, considerare tutte quelle istituzioni, assetti e organizzazioni all’interno dei quali ha luogo l’adozione, la configurazione e l’utilizzo della tecnologia. In questo insieme di fattori devono essere incluse la conoscenza e l’expertise che l’hanno creata e che si incorporano in essa, e il processo di apprendimento e di esperienza che si sviluppa nell’uso della tecnologia stessa.
Questo approccio si concentra, inoltre, sul concetto di scelta che influenza tutti i passaggi nella creazione di una tecnologia dall’ideazione, alla progettazione, alla commercializzazione all’uso. Possiamo pensare alla tecnologia come un <<giardino di traiettorie che si biforcano>> (ibid. p857) e ogni scelta compiuta da ogni attore sociale può portare a diversi esiti e a diverse implicazioni per la società e per i gruppi sociali che la usano nel suo processo di evoluzione. Questo apre a due questioni che riguardano la negoziabilità e la irreversibilità.
1. La negoziabilità riguarda lo scopo per cui alcuni gruppi sociali forzano la forma delle tecnologie per i loro fini (si pensi alla nascita dell’e-mail, in seguito alla trasformazione del modo d’uso della tecnologia di connessione sviluppata da ARPANET).
2. L’irreversibilità riguarda il radicamento di certi usi che preclude la possibilità di sviluppi diversi o alternativi di quella tecnologia.
E’ importante, inoltre, osservare il modo in cui la tecnologia si diffonde, obiettivo questo della “Teoria della diffusione delle innovazioni” (Si veda su questo il contributo di Leah A. Lievrouw, Progettazione e sviluppo dei new media: diffusione delle innovazioni e modellamento sociale della tecnologia nell’edizione italiana del manuale Capire i New Media. Culture, comunicazione, innovazione tecnologica e istituzioni sociali e anche le slide realizzate da Davide Bennato sul tema) sviluppata da Rogers e che

pone particolare attenzione alle relazioni comunicative e ai flussi di informazione che promuovono l’adozione e l’implementazione di una tecnologia

Secondo questa teoria, infatti le reti di relazioni e i significati condivisi modellano l’azione sociale, inclusa l’adozione della tecnologia ed è importante tenerne conto soprattutto in quelle tecnologie che si sviluppano su modelli informatici di comunicazione.
Dal momento che U-Loop è una tecnologia altamente flessibile e che offre innovativi modi di interazione tra utenti e tra utenti e ambiente, sarà necessario un livello di analisi che vada oltre l’idea di “previsione dell’impatto sociale” e che, piuttosto, ponga attenzione ai modi in cui la tecnologia evolve sia in fase di progettazione sia in fase di adozione, non per anticipare ma per comprenderne al meglio gli sviluppi possibili e futuri.
Quanto detto fin qui raccoglie le prime domande e le prime considerazioni che orienteranno la nostra attività di ricerca su ULOOP.
Per le risposte dovrete attendere necessariamente i post successivi 🙂

Alcuni dati sui Twitter trending topic in Italia

Gli argomenti della settimana su Twitter in Italia analizzati con il GnipPowerTrack importer di DiscoverText

Come accennato nel precedente post, ho avuto la possibilità di testare per alcuni giorni una nuova funzionalità di DiscoverText che consente di reperire gli status di Twitter (Tweet) in tempo (quasi) reale.  Grazie all’accordo con Gnip, DiscoverText consente dunque di accedere alla così detta Firehose (il flusso di tutti gli status di Twitter) e di raccogliere questi contenuti per una successiva analisi.
La partecipazione a questo programma di beta test è durata dal 19 al 24 Ottobre (anche se il servizio è ancora al momento attivo).
DiscoverText, già nella versione in produzione, consente di importare contenuti da diverse fonti:

Per quanto riguarda Twitter era già disponibile il Live Feed Import basato sulle REST API di Twitter che richiede l’autenticazione con il proprio nome utente e password ed ha il vantaggio di poter reperire i Tweet da un archivio degli ultimi 5/6 giorni e lo svantaggio di non garantire la completezza dei risultati (si veda il precedente post per i dettagli su questo).
La novità è il GNIP PowerTrack importer.
Questa modalità di importazione dei Tweet ha il vantaggio di restituire il flusso completo di tutti gli status pubblici e lo svantaggio di non consentire l’accesso ad alcun archivio (il flusso che si riesce a reperire parte dal momento in cui si inizia a raccogliere i dati).
Una combinazione delle due metodologie di importazione descritte dovrebbe consentire dunque una ragionevole fedeltà nella raccolta dati (ovviamente bisognerà rimuovere i duplicati, cosa che DiscoverText consente di fare in automatico).
La metodologia di importazione GNIP PowerTrack si basa sulla costruzione di una regola di importazione che può essere costruita da un massimo di 10 termini o operatori fino a una lunghezza complessiva di 255 caratteri per l’intera regola. In pratica si tratta di filtrare il flusso dei contenuti secondo certi criteri.
Si possono cercare frasi esatte, usare gli operatori – per escludere un termine, usare un hashtag – vengono identificati alla fonte da Twitter – come chiave di ricerca, una mention di un utente specifico (@nomeutente compresi i RT), status prodotti o destinati ad un utente specifico (from: e to:), contenenti smile, status prodotti da un client specifico, status che siano retweet di uno specifico utente, status contenenti luoghi, stringhe specifiche, che contengono un certo indirizzo internet, status prodotti da utenti che abbiano un klout score compreso fra due valori minimo e massimo, status che contengono link, che siano geo-referenziati, che contengono almeno una mentions (compresi dunque i retweet) o almeno un hashtag e infine status classificati da Gnip come appartenenti ad una certa lingua (compreso l’italiano).
Per testare la funzionalità ho raccolto i dati per molti dei trending topics (per capire meglio come vengono calcolati consiglio la lettura di questo articolo) italiani emersi nel corso degli ultimi giorni da #erpelliccia a #gheddafi, da #nubifragio a #notav (+ “val di susa”) senza dimenticare #XF5 e #gf12.  Ho anche provato per breve tempo a monitorare un trending topic globale e sponsorizzato come “Paranormal Activity 3”. Per completare i test ho anche provato a raccogliere i dati dell’interno stream di contenuti in lingua italiana allo scopo di comprendere meglio la consistenza del flusso di tweet prodotti nella nostra lingua.
Iniziamo l’analisi da questi ultimi.
Usando il filtro lang:it avrei dovuto reperire il flusso di Tweet in italiano. Purtroppo questo filtro si è dimostrato del tutto inefficace. Per motivi che non mi sono chiari oltre ai Tweet in italiano sono stati anche reperiti i Tweet in altre lingue fra cui indonesiano, malese, vietnamita, turco e chissà quante altre (ho usato Google Translate per identificarle). Questa errata identificazione della lingua ha reso impossibile raggiungere l’obiettivo che mi ero posto ed i sotto-obiettivi che sarebbero stati identificare quanti di questi Tweet prodotti nella nostra lingua fossero geo-referenziati, contenessero link, mentions ed hashtag.
Passiamo dunque all’analisi del flusso di un trending topic globale e sponsorizzato come “Paranormal Activity 3”.
In questo caso, usando la semplice ricerca per frase esatta, sono stati reperiti 21333 status updates in circa due ore e mezza (nello specifico fra  il 10/21/2011 2:36:13 AM ed il 10/21/2011 5:05:37 AM EST: Eastern Standard Time).  Si tratta di 142 Tweet circa al minuto. DiscoverText supporta l’analisi di grandi quantità di dati attraverso uno strumento chiamato CloudExplorer. Si tratta in pratica di una semplice tagcloud che consente però di cliccare su ogni voce per accedere alla lista dei contenuti filtrati per quella parola chiave.

 
Cliccando ad esempio su See si accede ad una lista filtrata dei 7260 Tweet in archivio che contengono questo termine.  L’archivio può inoltre essere ricercato liberamente per parola chiave e filtrato usando uno o più criteri basati sugli stessi metadati disponibili per la costruzione di un filtro. Posso ad esempio sapere con facilità quanti status in archivio contengono un hashtag (in questo caso 2433) o quanti contengono menzioni di altri utenti (8004).
Dal pannello filtri avanzati della ricerca è inoltre possibile ottenere alcuni altri dati sull’archivio. Si può ad esempio conoscere il numero degli utenti che hanno usato l’hashtag (19360) e quale di questi lo abbia fatto più volte (15). Conoscere l’hashtag più utilizzato è Paranormal con 281 occorrenze seguito curiosamente da iDontSupport con 66 occorrenze. In totale sono stati utilizzati 1342 hastag diversi. Ci sono invece 5930 utenti diversi menzionati con in testa l’account ufficiale del film chiamato in causa da 531 status.
Il risultato di una ricerca può essere salvato in un bucket (un contenitore di passaggio con il quale miscelare i dati unendo ad esempio più di un bucket) dal quale costruire poi un dataset. Al dataset possono essere applicate le classiche tecniche di analisi del contenuto basate su griglie di analisi date o costruite a partire dai dati. Il dataset toolbox comprende strumenti piuttosto avanzati per il supporto della collaborazione fra più ricercatori nella codifica dello stesso dataset.
Veniamo adesso ai dati che riguardano i trending topics italiani.
Mi soffermerò sui casi di #gheddafi lang:it, #nubifragio, #notav, #XF5 e #gf12.
L’importer avviato alle il 20/10/2011 alle 13:50 (l’ANSA con la notizia della morte di Gheddafi è delle 13:11) ha raccolto 6601 Tweet. Il primo contenuto reperito è datato 20/10/2011 alle 13:49, l’ultimo 24/10/2011 alle 11:17.
Nel GNIP Feed Management è possibile visualizzare un grafico dell’andamento dei Tweet per ogni importer attivo.
Questo è il grafico per #gheddafi (gli orari sono in EST – Eastern Standard Time e gli slot temporali da circa 15 minuti).

 
Il picco è di oltre 300 Tweet in 15 minuti circa e corrisponde con il momento di attivazione dell’importer. Sarebbe stato bello poter raccogliere i dati di quella mezz’ora intercorsa fra l’annuncio della morte ed il momento di attivazione dell’importer. Raccogliere dataset completi relativi a breaking news è veramente difficile con questo metodo.
Per questo motivo ho provato nel caso di #nubifragio ad utilizzare sia l’importer basato sulle REST API sia il GNIP Power Track.
Con questo metodo ho reperito 4005 (1886 con GNIP e 2119 con le REST API) Tweet. La rimozione dei duplicati esatti ha ridotto l’archivio a 1783 status. Non mi è chiarissimo con questo elenco dei duplicati esatti venga creato e dopo averlo applicato anche ad altri archivi che non avrebbero dovuto contenere duplicati temo posso rimuovere anche i retweet identici. Purtroppo è difficile estrarre da questo archivio elementi utili sulle date perché, apparentemente, i Tweet importati da GNIP e quelli importati dalle REST API sono riferiti a fusi orari diversi.  Questo status duplicato ha come ora di pubblicazione rispettivamente le 9:33 AM EST e le 5:33 AM di un fuso orario sconosciuto.
Più semplice è invece lavorare su eventi programmati per i quali è possibile attivare l’importer per tempo.
Per la manifestazione di Val di Susa ho seguito l’hashtag #notav e la stringa di ricerca “val di susa”. Ho attivato l’importer alle 8:34 23/10 e reperito nel complesso 5501 Tweet.
Di seguito il grafico per l’hashtag #notav.

 
In questo caso sono riuscito a fotografare l’andamento del fenomeno prima che raggiungesse il picco (avvenuto intorno all’ora di pranzo con oltre 300 Tweet prodotti durante lo slot di 15 minuti circa).
Gli hashtag più utilizzati sono stati #diamociuntaglio (1014) e #report (117). Dei 429 utenti menzionati, notav_info è il più citato (645). In totale hanno contribuito a questo hashtag 1300 utenti diversi. Il più attivo è stato ViceVersa_1917 con 146 Tweet.
Durante il periodo di betatest sono inoltre andati in onda le prime puntate della quinta stagione di X Factor e della dodicesima edizione de Il Grande Fratello.
Per X Factor ho monitorato l’hashtag #xf5 con colpevole ritardo a partire dalla mattina successiva alla messa in onda.

 
Anche la mattina dopo c’è stato un discreto volume di conversazioni che ha superato il picco di 200 Tweet in 15 minuti. Se dovessi avere ancora accesso al servizio proverò a raccogliere i dati relativi alla messa in onda della seconda puntata in onda domani.
Infine per quanto riguarda la prima puntata della dodicesima stagione de Il Grande Fratello ho monitorato sia l’hashtag #gf12 che la stringa “grande fratello” a partire da pochi minuti prima della messa in onda (20:56 del 24/10).
Ecco il volume di Tweet durante la messa in onda (il primo grafico è riferito a “grande fratello” e il secondo a #gf12) [le 3 PM del grafico equivalgono alle nostre 21:00].

 

 
In entrambi i casi l’andamento è simile con le discussioni che si protraggono fino a oltre mezza notte (le 6 PM nel grafico). Il buco delle 5 PM del grafico credo sia dovuto a qualche problema nel flusso di importazione dei dati.
Nel secondo caso si sono toccati e superati gli 800 Tweet in 15 minuti. Inoltre questo volume è stato mantenuto per tutta la durata del programma.
Nel complesso ho reperito 13308 generati da 5169 utenti il più attivo dei quali è stato w4rr10r_0 con i suoi 160 status. Oltre a #gf12 sono stati utilizzati altri 883 diversi hashtag. Il più utilizzato dopo #gf12 è stato #GrandeFratello.
Fra i xxx menzionati nei Tweet etichettati #gf12 spicca @Microsatira il cui tweet ironico è stato retweettato oltre 100 volte (in totale ha ricevuto 189 mentions).
La seguente tagcloud dovrebbe dare un’idea dei temi più citati:

Come spesso accade nei discorsi sui programmi televisivi di grande richiamo i commenti veri e propri al programma si sommano ai giudizi di chi non riesce a capacitarsi di come quel programma possa avere successo o si lamenta della qualità della televisione italiana.
In conclusione credo che DiscoverText sia uno strumento con delle caratteristiche uniche. Non si tratta di un prodotto perfetto e non sono mancate le volte nelle quali, specie su grandi quantità di dati, mi sono stati restituiti dei messaggi di errore. L’accordo che stanno perfezionando con Gnip potrebbe rendere questo strumento essenziale per chi voglia fare ricerca su Twitter. Le modalità di implementazione di questa funzionalità rendono bene le potenzialità di estensibilità della piattaforma. La gestione delle timezones appare migliorabile (forse renderanno in futuro possibile scegliere all’utente il fuso orario per il grafico). Nel complesso il sistema si comporta bene anche su grandi quantità di dati mostrando eccellenti performance nella creazione delle tagclouds (che necessiterebbero però della possibilità di escludere liste di parole comuni) e nelle ricerche che richiedono sempre tempi ragionevolmente brevi per essere portate a termine.
Credo ci siano più di uno spunto
Come ho avuto modo di scrivere altrove, l’utilizzo di una piattaforma web collaborativa per l’analisi del contenuto rappresenta un percorso obbligato per chi desideri fare ricerca qualitativa su grandi quantità di dati (come quelli provenienti dai media sociali).
DiscoverText è un prodotto della Texifter LLC. Si tratta di una società nata come spin-off a partire dall’attività di ricerca di Stuart W. Shulman presso la University of Massachusetts Amherst.
Non mi resta dunque che augurare buon lavoro a Stuart e al suo team di sviluppatori.
P.S. Durante il periodo di beta-test i dati non sono esportabili quindi non chiedetemeli 😉
 
 
 
 
 Come accennato nel precedente post, ho avuto la possibilità di testare per alcuni giorni una nuova funzionalità di DiscoverText che consente di reperire gli status di Twitter (Tweet) in tempo (quasi) reale.  Grazie all’accordo con Gnip, DiscoverText consente dunque di accedere alla così detta Firehose (il flusso di tutti gli status di Twitter) e di raccogliere questi contenuti per una successiva analisi.
La partecipazione a questo programma di beta test è durata dal 19 al 24 Ottobre (anche se il servizio è ancora al momento attivo).
DiscoverText, già nella versione in produzione, consente di importare contenuti da diverse fonti:

Per quanto riguarda Twitter era già disponibile il Live Feed Import basato sulle REST API di Twitter che richiede l’autenticazione con il proprio nome utente e password ed ha il vantaggio di poter reperire i Tweet da un archivio degli ultimi 5/6 giorni e lo svantaggio di non garantire la completezza dei risultati (si veda il precedente post per i dettagli su questo).
La novità è il GNIP PowerTrack importer.
Questa modalità di importazione dei Tweet ha il vantaggio di restituire il flusso completo di tutti gli status pubblici e lo svantaggio di non consentire l’accesso ad alcun archivio (il flusso che si riesce a reperire parte dal momento in cui si inizia a raccogliere i dati).
Una combinazione delle due metodologie di importazione descritte dovrebbe consentire dunque una ragionevole fedeltà nella raccolta dati (ovviamente bisognerà rimuovere i duplicati, cosa che DiscoverText consente di fare in automatico).
La metodologia di importazione GNIP PowerTrack si basa sulla costruzione di una regola di importazione che può essere costruita da un massimo di 10 termini o operatori fino a una lunghezza complessiva di 255 caratteri per l’intera regola. In pratica si tratta di filtrare il flusso dei contenuti secondo certi criteri.
Si possono cercare frasi esatte, usare gli operatori – per escludere un termine, usare un hashtag – vengono identificati alla fonte da Twitter – come chiave di ricerca, una mention di un utente specifico (@nomeutente compresi i RT), status prodotti o destinati ad un utente specifico (from: e to:), contenenti smile, status prodotti da un client specifico, status che siano retweet di uno specifico utente, status contenenti luoghi, stringhe specifiche, che contengono un certo indirizzo internet, status prodotti da utenti che abbiano un klout score compreso fra due valori minimo e massimo, status che contengono link, che siano geo-referenziati, che contengono almeno una mentions (compresi dunque i retweet) o almeno un hashtag e infine status classificati da Gnip come appartenenti ad una certa lingua (compreso l’italiano).
Per testare la funzionalità ho raccolto i dati per molti dei trending topics (per capire meglio come vengono calcolati consiglio la lettura di questo articolo) italiani emersi nel corso degli ultimi giorni da #erpelliccia a #gheddafi, da #nubifragio a #notav (+ “val di susa”) senza dimenticare #XF5 e #gf12.  Ho anche provato per breve tempo a monitorare un trending topic globale e sponsorizzato come “Paranormal Activity 3”. Per completare i test ho anche provato a raccogliere i dati dell’interno stream di contenuti in lingua italiana allo scopo di comprendere meglio la consistenza del flusso di tweet prodotti nella nostra lingua.
Iniziamo l’analisi da questi ultimi.
Usando il filtro lang:it avrei dovuto reperire il flusso di Tweet in italiano. Purtroppo questo filtro si è dimostrato del tutto inefficace. Per motivi che non mi sono chiari oltre ai Tweet in italiano sono stati anche reperiti i Tweet in altre lingue fra cui indonesiano, malese, vietnamita, turco e chissà quante altre (ho usato Google Translate per identificarle). Questa errata identificazione della lingua ha reso impossibile raggiungere l’obiettivo che mi ero posto ed i sotto-obiettivi che sarebbero stati identificare quanti di questi Tweet prodotti nella nostra lingua fossero geo-referenziati, contenessero link, mentions ed hashtag.
Passiamo dunque all’analisi del flusso di un trending topic globale e sponsorizzato come “Paranormal Activity 3”.
In questo caso, usando la semplice ricerca per frase esatta, sono stati reperiti 21333 status updates in circa due ore e mezza (nello specifico fra  il 10/21/2011 2:36:13 AM ed il 10/21/2011 5:05:37 AM EST: Eastern Standard Time).  Si tratta di 142 Tweet circa al minuto. DiscoverText supporta l’analisi di grandi quantità di dati attraverso uno strumento chiamato CloudExplorer. Si tratta in pratica di una semplice tagcloud che consente però di cliccare su ogni voce per accedere alla lista dei contenuti filtrati per quella parola chiave.

 
Cliccando ad esempio su See si accede ad una lista filtrata dei 7260 Tweet in archivio che contengono questo termine.  L’archivio può inoltre essere ricercato liberamente per parola chiave e filtrato usando uno o più criteri basati sugli stessi metadati disponibili per la costruzione di un filtro. Posso ad esempio sapere con facilità quanti status in archivio contengono un hashtag (in questo caso 2433) o quanti contengono menzioni di altri utenti (8004).
Dal pannello filtri avanzati della ricerca è inoltre possibile ottenere alcuni altri dati sull’archivio. Si può ad esempio conoscere il numero degli utenti che hanno usato l’hashtag (19360) e quale di questi lo abbia fatto più volte (15). Conoscere l’hashtag più utilizzato è Paranormal con 281 occorrenze seguito curiosamente da iDontSupport con 66 occorrenze. In totale sono stati utilizzati 1342 hastag diversi. Ci sono invece 5930 utenti diversi menzionati con in testa l’account ufficiale del film chiamato in causa da 531 status.
Il risultato di una ricerca può essere salvato in un bucket (un contenitore di passaggio con il quale miscelare i dati unendo ad esempio più di un bucket) dal quale costruire poi un dataset. Al dataset possono essere applicate le classiche tecniche di analisi del contenuto basate su griglie di analisi date o costruite a partire dai dati. Il dataset toolbox comprende strumenti piuttosto avanzati per il supporto della collaborazione fra più ricercatori nella codifica dello stesso dataset.
Veniamo adesso ai dati che riguardano i trending topics italiani.
Mi soffermerò sui casi di #gheddafi lang:it, #nubifragio, #notav, #XF5 e #gf12.
L’importer avviato alle il 20/10/2011 alle 13:50 (l’ANSA con la notizia della morte di Gheddafi è delle 13:11) ha raccolto 6601 Tweet. Il primo contenuto reperito è datato 20/10/2011 alle 13:49, l’ultimo 24/10/2011 alle 11:17.
Nel GNIP Feed Management è possibile visualizzare un grafico dell’andamento dei Tweet per ogni importer attivo.
Questo è il grafico per #gheddafi (gli orari sono in EST – Eastern Standard Time e gli slot temporali da circa 15 minuti).

 
Il picco è di oltre 300 Tweet in 15 minuti circa e corrisponde con il momento di attivazione dell’importer. Sarebbe stato bello poter raccogliere i dati di quella mezz’ora intercorsa fra l’annuncio della morte ed il momento di attivazione dell’importer. Raccogliere dataset completi relativi a breaking news è veramente difficile con questo metodo.
Per questo motivo ho provato nel caso di #nubifragio ad utilizzare sia l’importer basato sulle REST API sia il GNIP Power Track.
Con questo metodo ho reperito 4005 (1886 con GNIP e 2119 con le REST API) Tweet. La rimozione dei duplicati esatti ha ridotto l’archivio a 1783 status. Non mi è chiarissimo con questo elenco dei duplicati esatti venga creato e dopo averlo applicato anche ad altri archivi che non avrebbero dovuto contenere duplicati temo posso rimuovere anche i retweet identici. Purtroppo è difficile estrarre da questo archivio elementi utili sulle date perché, apparentemente, i Tweet importati da GNIP e quelli importati dalle REST API sono riferiti a fusi orari diversi.  Questo status duplicato ha come ora di pubblicazione rispettivamente le 9:33 AM EST e le 5:33 AM di un fuso orario sconosciuto.
Più semplice è invece lavorare su eventi programmati per i quali è possibile attivare l’importer per tempo.
Per la manifestazione di Val di Susa ho seguito l’hashtag #notav e la stringa di ricerca “val di susa”. Ho attivato l’importer alle 8:34 23/10 e reperito nel complesso 5501 Tweet.
Di seguito il grafico per l’hashtag #notav.

 
In questo caso sono riuscito a fotografare l’andamento del fenomeno prima che raggiungesse il picco (avvenuto intorno all’ora di pranzo con oltre 300 Tweet prodotti durante lo slot di 15 minuti circa).
Gli hashtag più utilizzati sono stati #diamociuntaglio (1014) e #report (117). Dei 429 utenti menzionati, notav_info è il più citato (645). In totale hanno contribuito a questo hashtag 1300 utenti diversi. Il più attivo è stato ViceVersa_1917 con 146 Tweet.
Durante il periodo di betatest sono inoltre andati in onda le prime puntate della quinta stagione di X Factor e della dodicesima edizione de Il Grande Fratello.
Per X Factor ho monitorato l’hashtag #xf5 con colpevole ritardo a partire dalla mattina successiva alla messa in onda.

 
Anche la mattina dopo c’è stato un discreto volume di conversazioni che ha superato il picco di 200 Tweet in 15 minuti. Se dovessi avere ancora accesso al servizio proverò a raccogliere i dati relativi alla messa in onda della seconda puntata in onda domani.
Infine per quanto riguarda la prima puntata della dodicesima stagione de Il Grande Fratello ho monitorato sia l’hashtag #gf12 che la stringa “grande fratello” a partire da pochi minuti prima della messa in onda (20:56 del 24/10).
Ecco il volume di Tweet durante la messa in onda (il primo grafico è riferito a “grande fratello” e il secondo a #gf12) [le 3 PM del grafico equivalgono alle nostre 21:00].

 

 
In entrambi i casi l’andamento è simile con le discussioni che si protraggono fino a oltre mezza notte (le 6 PM nel grafico). Il buco delle 5 PM del grafico credo sia dovuto a qualche problema nel flusso di importazione dei dati.
Nel secondo caso si sono toccati e superati gli 800 Tweet in 15 minuti. Inoltre questo volume è stato mantenuto per tutta la durata del programma.
Nel complesso ho reperito 13308 generati da 5169 utenti il più attivo dei quali è stato w4rr10r_0 con i suoi 160 status. Oltre a #gf12 sono stati utilizzati altri 883 diversi hashtag. Il più utilizzato dopo #gf12 è stato #GrandeFratello.
Fra i xxx menzionati nei Tweet etichettati #gf12 spicca @Microsatira il cui tweet ironico è stato retweettato oltre 100 volte (in totale ha ricevuto 189 mentions).
La seguente tagcloud dovrebbe dare un’idea dei temi più citati:

Come spesso accade nei discorsi sui programmi televisivi di grande richiamo i commenti veri e propri al programma si sommano ai giudizi di chi non riesce a capacitarsi di come quel programma possa avere successo o si lamenta della qualità della televisione italiana.
In conclusione credo che DiscoverText sia uno strumento con delle caratteristiche uniche. Non si tratta di un prodotto perfetto e non sono mancate le volte nelle quali, specie su grandi quantità di dati, mi sono stati restituiti dei messaggi di errore. L’accordo che stanno perfezionando con Gnip potrebbe rendere questo strumento essenziale per chi voglia fare ricerca su Twitter. Le modalità di implementazione di questa funzionalità rendono bene le potenzialità di estensibilità della piattaforma. La gestione delle timezones appare migliorabile (forse renderanno in futuro possibile scegliere all’utente il fuso orario per il grafico). Nel complesso il sistema si comporta bene anche su grandi quantità di dati mostrando eccellenti performance nella creazione delle tagclouds (che necessiterebbero però della possibilità di escludere liste di parole comuni) e nelle ricerche che richiedono sempre tempi ragionevolmente brevi per essere portate a termine.
Credo ci siano più di uno spunto
Come ho avuto modo di scrivere altrove, l’utilizzo di una piattaforma web collaborativa per l’analisi del contenuto rappresenta un percorso obbligato per chi desideri fare ricerca qualitativa su grandi quantità di dati (come quelli provenienti dai media sociali).
DiscoverText è un prodotto della Texifter LLC. Si tratta di una società nata come spin-off a partire dall’attività di ricerca di Stuart W. Shulman presso la University of Massachusetts Amherst.
Non mi resta dunque che augurare buon lavoro a Stuart e al suo team di sviluppatori.
P.S. Durante il periodo di beta-test i dati non sono esportabili quindi non chiedetemeli 😉
 
 
 
 
 Come accennato nel precedente post, ho avuto la possibilità di testare per alcuni giorni una nuova funzionalità di DiscoverText che consente di reperire gli status di Twitter (Tweet) in tempo (quasi) reale.  Grazie all’accordo con Gnip, DiscoverText consente dunque di accedere alla così detta Firehose (il flusso di tutti gli status di Twitter) e di raccogliere questi contenuti per una successiva analisi.
La partecipazione a questo programma di beta test è durata dal 19 al 24 Ottobre (anche se il servizio è ancora al momento attivo).
DiscoverText, già nella versione in produzione, consente di importare contenuti da diverse fonti:

Per quanto riguarda Twitter era già disponibile il Live Feed Import basato sulle REST API di Twitter che richiede l’autenticazione con il proprio nome utente e password ed ha il vantaggio di poter reperire i Tweet da un archivio degli ultimi 5/6 giorni e lo svantaggio di non garantire la completezza dei risultati (si veda il precedente post per i dettagli su questo).
La novità è il GNIP PowerTrack importer.
Questa modalità di importazione dei Tweet ha il vantaggio di restituire il flusso completo di tutti gli status pubblici e lo svantaggio di non consentire l’accesso ad alcun archivio (il flusso che si riesce a reperire parte dal momento in cui si inizia a raccogliere i dati).
Una combinazione delle due metodologie di importazione descritte dovrebbe consentire dunque una ragionevole fedeltà nella raccolta dati (ovviamente bisognerà rimuovere i duplicati, cosa che DiscoverText consente di fare in automatico).
La metodologia di importazione GNIP PowerTrack si basa sulla costruzione di una regola di importazione che può essere costruita da un massimo di 10 termini o operatori fino a una lunghezza complessiva di 255 caratteri per l’intera regola. In pratica si tratta di filtrare il flusso dei contenuti secondo certi criteri.
Si possono cercare frasi esatte, usare gli operatori – per escludere un termine, usare un hashtag – vengono identificati alla fonte da Twitter – come chiave di ricerca, una mention di un utente specifico (@nomeutente compresi i RT), status prodotti o destinati ad un utente specifico (from: e to:), contenenti smile, status prodotti da un client specifico, status che siano retweet di uno specifico utente, status contenenti luoghi, stringhe specifiche, che contengono un certo indirizzo internet, status prodotti da utenti che abbiano un klout score compreso fra due valori minimo e massimo, status che contengono link, che siano geo-referenziati, che contengono almeno una mentions (compresi dunque i retweet) o almeno un hashtag e infine status classificati da Gnip come appartenenti ad una certa lingua (compreso l’italiano).
Per testare la funzionalità ho raccolto i dati per molti dei trending topics (per capire meglio come vengono calcolati consiglio la lettura di questo articolo) italiani emersi nel corso degli ultimi giorni da #erpelliccia a #gheddafi, da #nubifragio a #notav (+ “val di susa”) senza dimenticare #XF5 e #gf12.  Ho anche provato per breve tempo a monitorare un trending topic globale e sponsorizzato come “Paranormal Activity 3”. Per completare i test ho anche provato a raccogliere i dati dell’interno stream di contenuti in lingua italiana allo scopo di comprendere meglio la consistenza del flusso di tweet prodotti nella nostra lingua.
Iniziamo l’analisi da questi ultimi.
Usando il filtro lang:it avrei dovuto reperire il flusso di Tweet in italiano. Purtroppo questo filtro si è dimostrato del tutto inefficace. Per motivi che non mi sono chiari oltre ai Tweet in italiano sono stati anche reperiti i Tweet in altre lingue fra cui indonesiano, malese, vietnamita, turco e chissà quante altre (ho usato Google Translate per identificarle). Questa errata identificazione della lingua ha reso impossibile raggiungere l’obiettivo che mi ero posto ed i sotto-obiettivi che sarebbero stati identificare quanti di questi Tweet prodotti nella nostra lingua fossero geo-referenziati, contenessero link, mentions ed hashtag.
Passiamo dunque all’analisi del flusso di un trending topic globale e sponsorizzato come “Paranormal Activity 3”.
In questo caso, usando la semplice ricerca per frase esatta, sono stati reperiti 21333 status updates in circa due ore e mezza (nello specifico fra  il 10/21/2011 2:36:13 AM ed il 10/21/2011 5:05:37 AM EST: Eastern Standard Time).  Si tratta di 142 Tweet circa al minuto. DiscoverText supporta l’analisi di grandi quantità di dati attraverso uno strumento chiamato CloudExplorer. Si tratta in pratica di una semplice tagcloud che consente però di cliccare su ogni voce per accedere alla lista dei contenuti filtrati per quella parola chiave.

 
Cliccando ad esempio su See si accede ad una lista filtrata dei 7260 Tweet in archivio che contengono questo termine.  L’archivio può inoltre essere ricercato liberamente per parola chiave e filtrato usando uno o più criteri basati sugli stessi metadati disponibili per la costruzione di un filtro. Posso ad esempio sapere con facilità quanti status in archivio contengono un hashtag (in questo caso 2433) o quanti contengono menzioni di altri utenti (8004).
Dal pannello filtri avanzati della ricerca è inoltre possibile ottenere alcuni altri dati sull’archivio. Si può ad esempio conoscere il numero degli utenti che hanno usato l’hashtag (19360) e quale di questi lo abbia fatto più volte (15). Conoscere l’hashtag più utilizzato è Paranormal con 281 occorrenze seguito curiosamente da iDontSupport con 66 occorrenze. In totale sono stati utilizzati 1342 hastag diversi. Ci sono invece 5930 utenti diversi menzionati con in testa l’account ufficiale del film chiamato in causa da 531 status.
Il risultato di una ricerca può essere salvato in un bucket (un contenitore di passaggio con il quale miscelare i dati unendo ad esempio più di un bucket) dal quale costruire poi un dataset. Al dataset possono essere applicate le classiche tecniche di analisi del contenuto basate su griglie di analisi date o costruite a partire dai dati. Il dataset toolbox comprende strumenti piuttosto avanzati per il supporto della collaborazione fra più ricercatori nella codifica dello stesso dataset.
Veniamo adesso ai dati che riguardano i trending topics italiani.
Mi soffermerò sui casi di #gheddafi lang:it, #nubifragio, #notav, #XF5 e #gf12.
L’importer avviato alle il 20/10/2011 alle 13:50 (l’ANSA con la notizia della morte di Gheddafi è delle 13:11) ha raccolto 6601 Tweet. Il primo contenuto reperito è datato 20/10/2011 alle 13:49, l’ultimo 24/10/2011 alle 11:17.
Nel GNIP Feed Management è possibile visualizzare un grafico dell’andamento dei Tweet per ogni importer attivo.
Questo è il grafico per #gheddafi (gli orari sono in EST – Eastern Standard Time e gli slot temporali da circa 15 minuti).

 
Il picco è di oltre 300 Tweet in 15 minuti circa e corrisponde con il momento di attivazione dell’importer. Sarebbe stato bello poter raccogliere i dati di quella mezz’ora intercorsa fra l’annuncio della morte ed il momento di attivazione dell’importer. Raccogliere dataset completi relativi a breaking news è veramente difficile con questo metodo.
Per questo motivo ho provato nel caso di #nubifragio ad utilizzare sia l’importer basato sulle REST API sia il GNIP Power Track.
Con questo metodo ho reperito 4005 (1886 con GNIP e 2119 con le REST API) Tweet. La rimozione dei duplicati esatti ha ridotto l’archivio a 1783 status. Non mi è chiarissimo con questo elenco dei duplicati esatti venga creato e dopo averlo applicato anche ad altri archivi che non avrebbero dovuto contenere duplicati temo posso rimuovere anche i retweet identici. Purtroppo è difficile estrarre da questo archivio elementi utili sulle date perché, apparentemente, i Tweet importati da GNIP e quelli importati dalle REST API sono riferiti a fusi orari diversi.  Questo status duplicato ha come ora di pubblicazione rispettivamente le 9:33 AM EST e le 5:33 AM di un fuso orario sconosciuto.
Più semplice è invece lavorare su eventi programmati per i quali è possibile attivare l’importer per tempo.
Per la manifestazione di Val di Susa ho seguito l’hashtag #notav e la stringa di ricerca “val di susa”. Ho attivato l’importer alle 8:34 23/10 e reperito nel complesso 5501 Tweet.
Di seguito il grafico per l’hashtag #notav.

 
In questo caso sono riuscito a fotografare l’andamento del fenomeno prima che raggiungesse il picco (avvenuto intorno all’ora di pranzo con oltre 300 Tweet prodotti durante lo slot di 15 minuti circa).
Gli hashtag più utilizzati sono stati #diamociuntaglio (1014) e #report (117). Dei 429 utenti menzionati, notav_info è il più citato (645). In totale hanno contribuito a questo hashtag 1300 utenti diversi. Il più attivo è stato ViceVersa_1917 con 146 Tweet.
Durante il periodo di betatest sono inoltre andati in onda le prime puntate della quinta stagione di X Factor e della dodicesima edizione de Il Grande Fratello.
Per X Factor ho monitorato l’hashtag #xf5 con colpevole ritardo a partire dalla mattina successiva alla messa in onda.

 
Anche la mattina dopo c’è stato un discreto volume di conversazioni che ha superato il picco di 200 Tweet in 15 minuti. Se dovessi avere ancora accesso al servizio proverò a raccogliere i dati relativi alla messa in onda della seconda puntata in onda domani.
Infine per quanto riguarda la prima puntata della dodicesima stagione de Il Grande Fratello ho monitorato sia l’hashtag #gf12 che la stringa “grande fratello” a partire da pochi minuti prima della messa in onda (20:56 del 24/10).
Ecco il volume di Tweet durante la messa in onda (il primo grafico è riferito a “grande fratello” e il secondo a #gf12) [le 3 PM del grafico equivalgono alle nostre 21:00].

 

 
In entrambi i casi l’andamento è simile con le discussioni che si protraggono fino a oltre mezza notte (le 6 PM nel grafico). Il buco delle 5 PM del grafico credo sia dovuto a qualche problema nel flusso di importazione dei dati.
Nel secondo caso si sono toccati e superati gli 800 Tweet in 15 minuti. Inoltre questo volume è stato mantenuto per tutta la durata del programma.
Nel complesso ho reperito 13308 generati da 5169 utenti il più attivo dei quali è stato w4rr10r_0 con i suoi 160 status. Oltre a #gf12 sono stati utilizzati altri 883 diversi hashtag. Il più utilizzato dopo #gf12 è stato #GrandeFratello.
Fra i xxx menzionati nei Tweet etichettati #gf12 spicca @Microsatira il cui tweet ironico è stato retweettato oltre 100 volte (in totale ha ricevuto 189 mentions).
La seguente tagcloud dovrebbe dare un’idea dei temi più citati:

Come spesso accade nei discorsi sui programmi televisivi di grande richiamo i commenti veri e propri al programma si sommano ai giudizi di chi non riesce a capacitarsi di come quel programma possa avere successo o si lamenta della qualità della televisione italiana.
In conclusione credo che DiscoverText sia uno strumento con delle caratteristiche uniche. Non si tratta di un prodotto perfetto e non sono mancate le volte nelle quali, specie su grandi quantità di dati, mi sono stati restituiti dei messaggi di errore. L’accordo che stanno perfezionando con Gnip potrebbe rendere questo strumento essenziale per chi voglia fare ricerca su Twitter. Le modalità di implementazione di questa funzionalità rendono bene le potenzialità di estensibilità della piattaforma. La gestione delle timezones appare migliorabile (forse renderanno in futuro possibile scegliere all’utente il fuso orario per il grafico). Nel complesso il sistema si comporta bene anche su grandi quantità di dati mostrando eccellenti performance nella creazione delle tagclouds (che necessiterebbero però della possibilità di escludere liste di parole comuni) e nelle ricerche che richiedono sempre tempi ragionevolmente brevi per essere portate a termine.
Credo ci siano più di uno spunto
Come ho avuto modo di scrivere altrove, l’utilizzo di una piattaforma web collaborativa per l’analisi del contenuto rappresenta un percorso obbligato per chi desideri fare ricerca qualitativa su grandi quantità di dati (come quelli provenienti dai media sociali).
DiscoverText è un prodotto della Texifter LLC. Si tratta di una società nata come spin-off a partire dall’attività di ricerca di Stuart W. Shulman presso la University of Massachusetts Amherst.
Non mi resta dunque che augurare buon lavoro a Stuart e al suo team di sviluppatori.
P.S. Durante il periodo di beta-test i dati non sono esportabili quindi non chiedetemeli 😉
 
 
 
 
 

Limiti e possibilità della ricerca su Twitter

Il crescere del numero di ricercatori che scelgono i social media come luogo di osservazione per studiare le dinamiche sociali rende indispensabile fare il punto su limiti e possibilità offerti da queste piattaforme

Facendo seguito al diffondersi dei social media presso la popolazione del nostro Paese, si va progressivamente affermando, anche nella comunità accademica italiana, l’idea che questi spazi possano essere considerati un luogo di osservazione per le dinamiche sociali interne ed esterne alla rete.
Come all’estero anche in Italia, i ricercatori, al pari dei media, dedicano a Twitter un’attenzione talvolta non giustificata dai dati sulla diffusione della piattaforma stessa.
Sul blog ufficiale di Twitter si legge che la piattaforma ha recentemente tagliato il traguardo dei 100 milioni di account attivi nel mondo, che la metà di questi accede quotidianamente e che il 40% di essi legge i Tweet creati da altri utenti senza produrne di propri. Dopo questo annuncio, Vincenzo Cosenza ha messo a confronto questi dati con quelli rilasciati da Facebook.
Twitter non rilascia dati ufficiali sul numero di utenti registrati o attivi in ogni nazione, ma fonti attendibili stimavano circa 1,3 milioni di utenti italiani registrati di cui circa 350.000 attivi (che avevano cioè fatto login durante i precedenti trenta giorni attraverso Twitter o le sue API) a ottobre 2010. Per darvi un termine di paragone, nello stesso periodo Facebook aveva oltre 16 milioni di utenti italiani registrati e Linkedin 1,1.
Capire la situazione a oggi non è affatto semplice.
Stimare il traffico verso il sito non è infatti, in questo caso, un buon indicatore perché una significativa fetta di utenti accede a Twitter usando client che consentono di fruire della piattaforma senza passare dal sito twitter.com. Le statistiche di ricerca di Google evidenziano un interesse crescente, in Italia, per questa piattaforma con un volume che, tuttavia, non si discosta molto da quello di siti come Badoo, Netlog o Flickr. Provate voi stessi ad aggiungere la parola chiave Facebook per farvi un’idea dei rapporti fra i volumi di ricerca (che rappresentano un indicatore dell’interesse degli utenti verso una certa piattaforma).
Chiarite le proporzioni ci sarebbe da attendersi una analoga sproporzione nell’interesse dei ricercatori italiani.
Di fatto così non è. Anche se non ho dati specifici a riguardo ho la sensazione che gli studi basati sull’analisi dei contenuti generati dagli utenti su Facebook e su Twitter si equivalgano o propendano piuttosto per quest’ultima piattaforma. Basta scorrere il resoconto del recente convegno dell’associazione internazionale dei ricercatori che studiano internet, per capire che non si tratta di un fenomeno italiano e che l’interesse della comunità accademica è centrato, a dispetto dei dati sull’utilizzo, più su Twitter che su Facebook. Questa tendenza è particolarmente curiosa in Paesi come il nostro dove i dati sulla diffusione delle piattaforme restituiscono una mappa che indica piuttosto chiaramente dove si trova la maggior parte di utenti e dunque le dinamiche sociali che riguardano settori significativi della popolazione.
Credo ci siano diversi motivi che contribuiscono in vario modo a rendere Twitter una piattaforma attraente dal punto di vista dei ricercatori:
1. Il sistema di privacy e le pratiche d’uso di Facebook rendono inaccessibile gran parte dei contenuti. Su Twitter la maggior parte dei contenuti sono pubblici ed accessibili tramite semplici (o apparentemente semplici) ricerche;
2. L’interesse dei media verso Twitter rende notiziabili le ricerche che riguardano questa piattaforma;
3. La natura orientata all’informazione (la domanda di Twitter è “Cosa sta succedendo” e non “A cosa stai pensando”) lo rendono particolarmente indicato per studi orientati a comprendere i percorsi di diffusione delle notizie;
4. L’emergere di pratiche come l’uso degli hashtag, il retweet, il replay e trending topics (ormai parte delle funzionalità interne della piattaforma) rendono più semplice comprendere la struttura delle conversazioni.
Dunque ci sono diversi buoni motivi per usare Twitter come luogo di osservazione.
L’apparente semplicità di accesso cela tuttavia dei rischi di cui il ricercatore dovrebbe essere, quanto meno, al correte.
Intanto i Tweet reperibili sono, ovviamente, solo quelli pubblici. Per la maggior parte dei progetti non si tratta di un grosso problema che va semplicemente rendicontato specificando, quando ci si riferisce al corpus di dati, di Tweet pubblici.
Ma c’è dell’altro. Come forse saprete Twitter impone dei limiti di accesso per l’utilizzo delle sue API pubbliche.
Purtroppo questi limiti non sono affatto chiari.
Si sa che le Twitter REST API sono soggette ai seguenti limiti:
– 150 richieste non autenticate ogni ora (basate sul numero ip dal quale proviene la richiesta);
– 350 richieste autenticate all’ora (basate sull’identificativo dell’utente che fa la richiesta).
Si sa inoltre che ogni richiesta può restituire un massimo di 1500 tweet.
La documentazione che riguarda le Twitter Search API specifica che la ricerca non dà accesso all’indice completo di tutti i Tweet ma solo di quelli recenti (fino a 6-9 giorni prima) e che non si possono usare le Search API per trovare Tweet più vecchi di una settimana.
Inoltre aggiunge:

The Rate Limits for the Search API are not the same as for the REST API. When using the Search API you are not restricted by a certain number of API requests per hour, but instead by the complexity and frequency.
As requests to the Search API are anonymous, the rate limit is measured against the requesting client IP.
To prevent abuse the rate limit for Search is not published. If you are rate limited, the Search API will respond with an HTTP 420 Error. {"error":"You have been rate limited. Enhance your calm."}.

Dunque i Tweet reperiti attraverso questa API non garantiscono la completezza (la documentazione parla invece di focus sulla rilevanza) e alcuni Tweet potrebbero mancare all’appello per raggiunti limiti di richieste, perché l’utente che ha generato il tweet ha un basso ranking o, infine, semplicemente perché, a causa della limitatezza delle risorse, non tutti i Tweet possono essere indicizzati in Twitter Search (si veda qui).
Se si desidera la completezza (un requisito di solito indispensabile per chi fa ricerca), dice sempre la documentazione di Twitter, conviene usare le Streaming API.
Le Straming API restituiscono i Tweet in tempo reale. Questo significa che non è possibile tornare indietro nel tempo.
Ma anche le Streaming API hanno dei limiti.

Both the Streaming API and the Search API filter, and on some end-points, discard, statuses created by a small proportion of accounts based upon status quality metrics.

In compenso

 The Streaming API results are a superset of the Search API result. The Search API filters and ranks statuses for relevance. On certain queries, the Search relevance filtering can be quite selective. The Streaming API does not perform any relevance filtering or ranking. All statuses that pass the Result Quality filter are available on Streaming API.

L’uso delle Streaming API richiede l’autenticazione.
Di seguito, nel paragrafo su accesso e limiti di utilizzo, si dice che tutti gli utenti di Twitter sono abilitati a usare due metodi chiamati statuses/sample e statuses/filter e che per tutti gli altri metodi bisogna contattare Twitter.
Ora cosa sono questi statuses/sample e statuses/filter?
Il primo restituisce un campione di Tweet basato sull’universo costituito dal flusso di tutti gli status pubblici (il cui flusso è chiamato da Twitter Firehose).
Le proporzioni di questo campione possono cambiare senza preavviso ma al momento sono le seguenti:
– Circa l’1% degli status pubblici per il flusso che Twitter chiama Spritzer (disponibile a tutti);
– Circa il 10% per il flusso denominato Gardenhose (disponibile su richiesta).
Il metodo statuses/filter è quello che dovrebbe maggiormente interessare un ricercatore. Consente in pratica di filtrare il flusso per specifiche parole chiave (ad esempio un certo hashtag), per posizione geografica, che contengono il nome di un utente (@nomeutente) come un replay o un retweet o una semplice menzione.
Il livello di accesso di default consente l’accesso ad un massimo di 400 parole chiave, di 5000 nomi utente e 25 luoghi geografici (non è chiaro se si tratta di limiti legati alla storia del singolo utente o contemporanei).
In aggiunta a questi limiti la documentazione di Twitter contiene un paragrafo intitolato Filter Limiting nel quale si specifica che le ricerche per parole (track) chiave e quelle per luogo sono soggette ad un limite di utilizzo e aggiunge…

Reasonably focused track and location predicates will return all occurrences in the full Firehose stream of public statuses. Overly broad predicates will cause the output to be periodically limited. After the limitation period expires, all matching statuses will once again be delivered, along with a limit message that enumerates the total number of statuses that have been eliminated from the stream since the start of the connection. Limit messages are described in Parsing Responses.

Non è dato sapere cosa costituisca una ricerca ragionevolmente focalizzata. Rimane dunque la sensazione di una certa confusione.  Nell’articolo Six Provocations for Big Data le autrici affermano che

Twitter Inc. makes a fraction of its material available to the public through its APIs. The ‘firehose’ theoretically contains all public tweets ever posted and explicitly excludes any tweet that a user chose to make private or ‘protected.’ Yet, some publicly accessible tweets are also missing from the firehose. Although a handful of companies and startups have access to the firehose, very few researchers have this level of access. Most either have access to a ‘gardenhose’ (roughly 10% of public tweets), a ‘spritzer’ (roughly 1% of public tweets), or have used ‘white-listed’ accounts where they could use the APIs to get access to different subsets of content from the public stream. It is not clear what tweets are included in these different data streams or sampling them represents. It could be that the API pulls a random sample of tweets or that it pulls the first few thousand tweets per hour or that it only pulls tweets from a particular segment of the network graph. Given uncertainty, it is difficult for researchers to make claims about the quality of the data that they are analyzing. Is the data representative of all tweets? No, because it excludes tweets from protected accounts.Is the data representative of all public tweets? Perhaps, but not necessarily.

Di recente DiscoverText ha siglato un accordo con Gnip per offrire ai ricercatori che usano questa piattaforma l’accesso alla Firehose di Twitter. Al momento il servizio è in beta limitata ad un ristretto numero di utenti.
Da ieri ho accesso a questo servizio e lo avrò per i prossimi 4 giorni. Ho già iniziato a raccogliere dati per i principali trending topic italiani. In questi giorni cercherò di capire meglio i vantaggi e gli eventuali limiti di questa soluzione e ne parlerò in un prossimo post.Facendo seguito al diffondersi dei social media presso la popolazione del nostro Paese, si va progressivamente affermando, anche presso la comunità accademica italiana, l’idea che questi spazi possano essere considerati un luogo di osservazione per le dinamiche sociali interne ed esterne alla rete.
Come all’estero anche in Italia, i ricercatori, come i media, dedicano a Twitter un’attenzione talvolta non giustificata dai dati sulla diffusione della piattaforma stessa.
Sul blog ufficiale di Twitter si legge che la piattaforma ha recentemente tagliato il traguardo dei 100 milioni di account attivi nel mondo, che la metà di questi accede quotidianamente e che il 40% di essi legge i Tweet creati da altri utenti senza produrne di propri. Dopo questo annuncio, Vincenzo Cosenza ha messo a confronto questi dati con quelli rilasciati da Facebook.
Twitter non rilascia dati ufficiali sul numero di utenti registrati o attivi in ogni nazione, ma fonti attendibili stimavano circa 1,3 milioni di utenti italiani registrati di cui circa 350.000 attivi (che avevano cioè fatto login durante i precedenti trenta giorni attraverso Twitter o le sue API) a ottobre 2010. Per darvi un termine di paragone, nello stesso periodo Facebook aveva oltre 16 milioni di utenti italiani registrati e Linkedin 1,1.
Capire la situazione a oggi non è affatto semplice.
Stimare il traffico verso il sito non è infatti, in questo caso, un buon indicatore perché una significativa fetta di utenti accede a Twitter usando client che consentono di fruire della piattaforma senza passare dal sito twitter.com. Le statistiche di ricerca di Google evidenziano un interesse crescente, in Italia, per questa piattaforma con un volume che, tuttavia, non si discosta molto da quello di siti come Badoo, Netlog o Flickr. Provate voi stessi ad aggiungere la parola chiave Facebook per farvi un’idea dei rapporti fra i volumi di ricerca (che rappresentano un indicatore dell’interesse degli utenti verso una certa piattaforma).
Chiarite le proporzioni ci sarebbe da attendersi una analoga sproporzione nell’interesse dei ricercatori italiani.
Di fatto così non è. Anche se non ho dati specifici a riguardo ho la sensazione che gli studi basati sull’analisi dei contenuti generati dagli utenti su Facebook e su Twitter si equivalgano o propendano piuttosto per quest’ultima piattaforma. Basta scorrere il resoconto del recente convegno dell’associazione internazionale dei ricercatori che studiano internet, per capire che non si tratta di un fenomeno italiano e che l’interesse della comunità accademica è centrato, a dispetto dei dati sull’utilizzo, più su Twitter che su Facebook. Questa tendenza è particolarmente curiosa in Paesi come il nostro dove i dati sulla diffusione delle piattaforme restituiscono una mappa che indica piuttosto chiaramente dove si trova la maggior parte di utenti e dunque le dinamiche sociali che riguardano settori significativi della popolazione.
Credo ci siano diversi motivi che contribuiscono in vario modo a rendere Twitter una piattaforma attraente dal punto di vista dei ricercatori:
1. Il sistema di privacy e le pratiche d’uso di Facebook rendono inaccessibile gran parte dei contenuti. Su Twitter la maggior parte dei contenuti sono pubblici ed accessibili tramite semplici (o apparentemente semplici) ricerche;
2. L’interesse dei media verso Twitter rende notiziabili le ricerche che riguardano questa piattaforma;
3. La natura orientata all’informazione (la domanda di Twitter è “Cosa sta succedendo” e non “A cosa stai pensando”) lo rendono particolarmente indicato per studi orientati a comprendere i percorsi di diffusione delle notizie;
4. L’emergere di pratiche come l’uso degli hashtag, il retweet, il replay e trending topics (ormai parte delle funzionalità interne della piattaforma) rendono più semplice comprendere la struttura delle conversazioni.
Dunque ci sono diversi buoni motivi per usare Twitter come luogo di osservazione.
L’apparente semplicità di accesso cela tuttavia dei rischi di cui il ricercatore dovrebbe essere, quanto meno, al correte.
Intanto i Tweet reperibili sono, ovviamente, solo quelli pubblici. Per la maggior parte dei progetti non si tratta di un grosso problema che va semplicemente rendicontato specificando, quando ci si riferisce al corpus di dati, di Tweet pubblici.
Ma c’è dell’altro. Come forse saprete Twitter impone dei limiti di accesso per l’utilizzo delle sue API pubbliche.
Purtroppo questi limiti non sono affatto chiari.
Si sa che le Twitter REST API sono soggette ai seguenti limiti:
– 150 richieste non autenticate ogni ora (basate sul numero ip dal quale proviene la richiesta);
– 350 richieste autenticate all’ora (basate sull’identificativo dell’utente che fa la richiesta).
Si sa inoltre che ogni richiesta può restituire un massimo di 1500 tweet.
La documentazione che riguarda le Twitter Search API specifica che la ricerca non dà accesso all’indice completo di tutti i Tweet ma solo di quelli recenti (fino a 6-9 giorni prima) e che non si possono usare le Search API per trovare Tweet più vecchi di una settimana.
Inoltre aggiunge:

The Rate Limits for the Search API are not the same as for the REST API. When using the Search API you are not restricted by a certain number of API requests per hour, but instead by the complexity and frequency.
As requests to the Search API are anonymous, the rate limit is measured against the requesting client IP.
To prevent abuse the rate limit for Search is not published. If you are rate limited, the Search API will respond with an HTTP 420 Error. {"error":"You have been rate limited. Enhance your calm."}.

Dunque i Tweet reperiti attraverso questa API non garantiscono la completezza (la documentazione parla invece di focus sulla rilevanza) e alcuni Tweet potrebbero mancare all’appello per raggiunti limiti di richieste, perché l’utente che ha generato il tweet ha un basso ranking o, infine, semplicemente perché, a causa della limitatezza delle risorse, non tutti i Tweet possono essere indicizzati in Twitter Search (si veda qui).
Se si desidera la completezza (un requisito di solito indispensabile per chi fa ricerca), dice sempre la documentazione di Twitter, conviene usare le Streaming API.
Le Straming API restituiscono i Tweet in tempo reale. Questo significa che non è possibile tornare indietro nel tempo.
Ma anche le Streaming API hanno dei limiti.

Both the Streaming API and the Search API filter, and on some end-points, discard, statuses created by a small proportion of accounts based upon status quality metrics.

In compenso

 The Streaming API results are a superset of the Search API result. The Search API filters and ranks statuses for relevance. On certain queries, the Search relevance filtering can be quite selective. The Streaming API does not perform any relevance filtering or ranking. All statuses that pass the Result Quality filter are available on Streaming API.

L’uso delle Streaming API richiede l’autenticazione.
Di seguito, nel paragrafo su accesso e limiti di utilizzo, si dice che tutti gli utenti di Twitter sono abilitati a usare due metodi chiamati statuses/sample e statuses/filter e che per tutti gli altri metodi bisogna contattare Twitter.
Ora cosa sono questi statuses/sample e statuses/filter?
Il primo restituisce un campione di Tweet basato sull’universo costituito dal flusso di tutti gli status pubblici (il cui flusso è chiamato da Twitter Firehose).
Le proporzioni di questo campione possono cambiare senza preavviso ma al momento sono le seguenti:
– Circa l’1% degli status pubblici per il flusso che Twitter chiama Spritzer (disponibile a tutti);
– Circa il 10% per il flusso denominato Gardenhose (disponibile su richiesta).
Il metodo statuses/filter è quello che dovrebbe maggiormente interessare un ricercatore. Consente in pratica di filtrare il flusso per specifiche parole chiave (ad esempio un certo hashtag), per posizione geografica, che contengono il nome di un utente (@nomeutente) come un replay o un retweet o una semplice menzione.
Il livello di accesso di default consente l’accesso ad un massimo di 400 parole chiave, di 5000 nomi utente e 25 luoghi geografici (non è chiaro se si tratta di limiti legati alla storia del singolo utente o contemporanei).
In aggiunta a questi limiti la documentazione di Twitter contiene un paragrafo intitolato Filter Limiting nel quale si specifica che le ricerche per parole (track) chiave e quelle per luogo sono soggette ad un limite di utilizzo e aggiunge…

Reasonably focused track and location predicates will return all occurrences in the full Firehose stream of public statuses. Overly broad predicates will cause the output to be periodically limited. After the limitation period expires, all matching statuses will once again be delivered, along with a limit message that enumerates the total number of statuses that have been eliminated from the stream since the start of the connection. Limit messages are described in Parsing Responses.

Non è dato sapere cosa costituisca una ricerca ragionevolmente focalizzata. Rimane dunque la sensazione di una certa confusione.  Nell’articolo Six Provocations for Big Data le autrici affermano che

Twitter Inc. makes a fraction of its material available to the public through its APIs. The ‘firehose’ theoretically contains all public tweets ever posted and explicitly excludes any tweet that a user chose to make private or ‘protected.’ Yet, some publicly accessible tweets are also missing from the firehose. Although a handful of companies and startups have access to the firehose, very few researchers have this level of access. Most either have access to a ‘gardenhose’ (roughly 10% of public tweets), a ‘spritzer’ (roughly 1% of public tweets), or have used ‘white-listed’ accounts where they could use the APIs to get access to different subsets of content from the public stream. It is not clear what tweets are included in these different data streams or sampling them represents. It could be that the API pulls a random sample of tweets or that it pulls the first few thousand tweets per hour or that it only pulls tweets from a particular segment of the network graph. Given uncertainty, it is difficult for researchers to make claims about the quality of the data that they are analyzing. Is the data representative of all tweets? No, because it excludes tweets from protected accounts.Is the data representative of all public tweets? Perhaps, but not necessarily.

Di recente DiscoverText ha siglato un accordo con Gnip per offrire ai ricercatori che usano questa piattaforma l’accesso alla Firehose di Twitter. Al momento il servizio è in beta limitata ad un ristretto numero di utenti.
Da ieri ho accesso a questo servizio e lo avrò per i prossimi 4 giorni. Ho già iniziato a raccogliere dati per i principali trending topic italiani. In questi giorni cercherò di capire meglio i vantaggi e gli eventuali limiti di questa soluzione e ne parlerò in un prossimo post.Facendo seguito al diffondersi dei social media presso la popolazione del nostro Paese, si va progressivamente affermando, anche presso la comunità accademica italiana, l’idea che questi spazi possano essere considerati un luogo di osservazione per le dinamiche sociali interne ed esterne alla rete.
Come all’estero anche in Italia, i ricercatori, come i media, dedicano a Twitter un’attenzione talvolta non giustificata dai dati sulla diffusione della piattaforma stessa.
Sul blog ufficiale di Twitter si legge che la piattaforma ha recentemente tagliato il traguardo dei 100 milioni di account attivi nel mondo, che la metà di questi accede quotidianamente e che il 40% di essi legge i Tweet creati da altri utenti senza produrne di propri. Dopo questo annuncio, Vincenzo Cosenza ha messo a confronto questi dati con quelli rilasciati da Facebook.
Twitter non rilascia dati ufficiali sul numero di utenti registrati o attivi in ogni nazione, ma fonti attendibili stimavano circa 1,3 milioni di utenti italiani registrati di cui circa 350.000 attivi (che avevano cioè fatto login durante i precedenti trenta giorni attraverso Twitter o le sue API) a ottobre 2010. Per darvi un termine di paragone, nello stesso periodo Facebook aveva oltre 16 milioni di utenti italiani registrati e Linkedin 1,1.
Capire la situazione a oggi non è affatto semplice.
Stimare il traffico verso il sito non è infatti, in questo caso, un buon indicatore perché una significativa fetta di utenti accede a Twitter usando client che consentono di fruire della piattaforma senza passare dal sito twitter.com. Le statistiche di ricerca di Google evidenziano un interesse crescente, in Italia, per questa piattaforma con un volume che, tuttavia, non si discosta molto da quello di siti come Badoo, Netlog o Flickr. Provate voi stessi ad aggiungere la parola chiave Facebook per farvi un’idea dei rapporti fra i volumi di ricerca (che rappresentano un indicatore dell’interesse degli utenti verso una certa piattaforma).
Chiarite le proporzioni ci sarebbe da attendersi una analoga sproporzione nell’interesse dei ricercatori italiani.
Di fatto così non è. Anche se non ho dati specifici a riguardo ho la sensazione che gli studi basati sull’analisi dei contenuti generati dagli utenti su Facebook e su Twitter si equivalgano o propendano piuttosto per quest’ultima piattaforma. Basta scorrere il resoconto del recente convegno dell’associazione internazionale dei ricercatori che studiano internet, per capire che non si tratta di un fenomeno italiano e che l’interesse della comunità accademica è centrato, a dispetto dei dati sull’utilizzo, più su Twitter che su Facebook. Questa tendenza è particolarmente curiosa in Paesi come il nostro dove i dati sulla diffusione delle piattaforme restituiscono una mappa che indica piuttosto chiaramente dove si trova la maggior parte di utenti e dunque le dinamiche sociali che riguardano settori significativi della popolazione.
Credo ci siano diversi motivi che contribuiscono in vario modo a rendere Twitter una piattaforma attraente dal punto di vista dei ricercatori:
1. Il sistema di privacy e le pratiche d’uso di Facebook rendono inaccessibile gran parte dei contenuti. Su Twitter la maggior parte dei contenuti sono pubblici ed accessibili tramite semplici (o apparentemente semplici) ricerche;
2. L’interesse dei media verso Twitter rende notiziabili le ricerche che riguardano questa piattaforma;
3. La natura orientata all’informazione (la domanda di Twitter è “Cosa sta succedendo” e non “A cosa stai pensando”) lo rendono particolarmente indicato per studi orientati a comprendere i percorsi di diffusione delle notizie;
4. L’emergere di pratiche come l’uso degli hashtag, il retweet, il replay e trending topics (ormai parte delle funzionalità interne della piattaforma) rendono più semplice comprendere la struttura delle conversazioni.
Dunque ci sono diversi buoni motivi per usare Twitter come luogo di osservazione.
L’apparente semplicità di accesso cela tuttavia dei rischi di cui il ricercatore dovrebbe essere, quanto meno, al correte.
Intanto i Tweet reperibili sono, ovviamente, solo quelli pubblici. Per la maggior parte dei progetti non si tratta di un grosso problema che va semplicemente rendicontato specificando, quando ci si riferisce al corpus di dati, di Tweet pubblici.
Ma c’è dell’altro. Come forse saprete Twitter impone dei limiti di accesso per l’utilizzo delle sue API pubbliche.
Purtroppo questi limiti non sono affatto chiari.
Si sa che le Twitter REST API sono soggette ai seguenti limiti:
– 150 richieste non autenticate ogni ora (basate sul numero ip dal quale proviene la richiesta);
– 350 richieste autenticate all’ora (basate sull’identificativo dell’utente che fa la richiesta).
Si sa inoltre che ogni richiesta può restituire un massimo di 1500 tweet.
La documentazione che riguarda le Twitter Search API specifica che la ricerca non dà accesso all’indice completo di tutti i Tweet ma solo di quelli recenti (fino a 6-9 giorni prima) e che non si possono usare le Search API per trovare Tweet più vecchi di una settimana.
Inoltre aggiunge:

The Rate Limits for the Search API are not the same as for the REST API. When using the Search API you are not restricted by a certain number of API requests per hour, but instead by the complexity and frequency.
As requests to the Search API are anonymous, the rate limit is measured against the requesting client IP.
To prevent abuse the rate limit for Search is not published. If you are rate limited, the Search API will respond with an HTTP 420 Error. {"error":"You have been rate limited. Enhance your calm."}.

Dunque i Tweet reperiti attraverso questa API non garantiscono la completezza (la documentazione parla invece di focus sulla rilevanza) e alcuni Tweet potrebbero mancare all’appello per raggiunti limiti di richieste, perché l’utente che ha generato il tweet ha un basso ranking o, infine, semplicemente perché, a causa della limitatezza delle risorse, non tutti i Tweet possono essere indicizzati in Twitter Search (si veda qui).
Se si desidera la completezza (un requisito di solito indispensabile per chi fa ricerca), dice sempre la documentazione di Twitter, conviene usare le Streaming API.
Le Straming API restituiscono i Tweet in tempo reale. Questo significa che non è possibile tornare indietro nel tempo.
Ma anche le Streaming API hanno dei limiti.

Both the Streaming API and the Search API filter, and on some end-points, discard, statuses created by a small proportion of accounts based upon status quality metrics.

In compenso

 The Streaming API results are a superset of the Search API result. The Search API filters and ranks statuses for relevance. On certain queries, the Search relevance filtering can be quite selective. The Streaming API does not perform any relevance filtering or ranking. All statuses that pass the Result Quality filter are available on Streaming API.

L’uso delle Streaming API richiede l’autenticazione.
Di seguito, nel paragrafo su accesso e limiti di utilizzo, si dice che tutti gli utenti di Twitter sono abilitati a usare due metodi chiamati statuses/sample e statuses/filter e che per tutti gli altri metodi bisogna contattare Twitter.
Ora cosa sono questi statuses/sample e statuses/filter?
Il primo restituisce un campione di Tweet basato sull’universo costituito dal flusso di tutti gli status pubblici (il cui flusso è chiamato da Twitter Firehose).
Le proporzioni di questo campione possono cambiare senza preavviso ma al momento sono le seguenti:
– Circa l’1% degli status pubblici per il flusso che Twitter chiama Spritzer (disponibile a tutti);
– Circa il 10% per il flusso denominato Gardenhose (disponibile su richiesta).
Il metodo statuses/filter è quello che dovrebbe maggiormente interessare un ricercatore. Consente in pratica di filtrare il flusso per specifiche parole chiave (ad esempio un certo hashtag), per posizione geografica, che contengono il nome di un utente (@nomeutente) come un replay o un retweet o una semplice menzione.
Il livello di accesso di default consente l’accesso ad un massimo di 400 parole chiave, di 5000 nomi utente e 25 luoghi geografici (non è chiaro se si tratta di limiti legati alla storia del singolo utente o contemporanei).
In aggiunta a questi limiti la documentazione di Twitter contiene un paragrafo intitolato Filter Limiting nel quale si specifica che le ricerche per parole (track) chiave e quelle per luogo sono soggette ad un limite di utilizzo e aggiunge…

Reasonably focused track and location predicates will return all occurrences in the full Firehose stream of public statuses. Overly broad predicates will cause the output to be periodically limited. After the limitation period expires, all matching statuses will once again be delivered, along with a limit message that enumerates the total number of statuses that have been eliminated from the stream since the start of the connection. Limit messages are described in Parsing Responses.

Non è dato sapere cosa costituisca una ricerca ragionevolmente focalizzata. Rimane dunque la sensazione di una certa confusione.  Nell’articolo Six Provocations for Big Data le autrici affermano che

Twitter Inc. makes a fraction of its material available to the public through its APIs. The ‘firehose’ theoretically contains all public tweets ever posted and explicitly excludes any tweet that a user chose to make private or ‘protected.’ Yet, some publicly accessible tweets are also missing from the firehose. Although a handful of companies and startups have access to the firehose, very few researchers have this level of access. Most either have access to a ‘gardenhose’ (roughly 10% of public tweets), a ‘spritzer’ (roughly 1% of public tweets), or have used ‘white-listed’ accounts where they could use the APIs to get access to different subsets of content from the public stream. It is not clear what tweets are included in these different data streams or sampling them represents. It could be that the API pulls a random sample of tweets or that it pulls the first few thousand tweets per hour or that it only pulls tweets from a particular segment of the network graph. Given uncertainty, it is difficult for researchers to make claims about the quality of the data that they are analyzing. Is the data representative of all tweets? No, because it excludes tweets from protected accounts.Is the data representative of all public tweets? Perhaps, but not necessarily.

Di recente DiscoverText ha siglato un accordo con Gnip per offrire ai ricercatori che usano questa piattaforma l’accesso alla Firehose di Twitter. Al momento il servizio è in beta limitata ad un ristretto numero di utenti.
Da ieri ho accesso a questo servizio e lo avrò per i prossimi 4 giorni. Ho già iniziato a raccogliere dati per i principali trending topic italiani. In questi giorni cercherò di capire meglio i vantaggi e gli eventuali limiti di questa soluzione e ne parlerò in un prossimo post.

Storifying IR12

Visto che non sono a Seattle per partecipare all’annuale conferenza dell’Associazione dei Ricercatori che Studiano Internet ho deciso di sperimentare storify per provare a raccontare, a partire da contenuti trovati in rete, la conferenza.
Since this year I’ll not be able to attend the annual conference of the Association of Internet Researchers I’ll try to collect and curate interesting contents with storify.

Esiste una correlazione fra immatricolati e volume di ricerche su Google?

Uno studio empirico sui dati degli Atenei italiani

Proseguendo nella serie di articoli sull’utilizzo dei social media per predire il presente ho deciso questa volta di mettere a confronto il volume di ricerca su Google ed il numero di immatricolati negli atenei italiani.
L’andamento delle ricerche su Google mostra infatti una periodicità piuttosto marcata che vede nel mese di settembre il picco più alto di interesse. Questo vale sia per la generica chiave “università” che per chiavi specifiche ai diversi atenei.
Di qui la domanda: esiste una correlazione fra volume di ricerche su Google e numero degli immatricolati in un certo anno accademico?
Ho provato a verificare questa ipotesi a partire dai dati sugli immatricolati disponibili sull’anagrafe nazionale degli studenti del sito del MIUR e al servizio Google Insight for Search.
Per quanto riguarda gli immatricolati mi sono limitato a scaricare i dati disponibili (partono dall’anno accademico 2003/2004) e accorpare i fogli excel divisi per anno accademico in un’unica tabella. Al momento risultano attivi 88 atenei e l’andamento complessivo degli immatricolati è il seguente

Per misurare il volume di ricerca su Google ho effettuato delle query su Google Insight for Search. Questo servizio restitutrice “il numero di ricerche web eseguite con un termine specifico rispetto al numero totale di ricerche effettuate su Google in un arco di tempo. Non rappresentano i valori del volume di ricerca assoluto, in quanto i dati vengono normalizzati e presentati in scala da 0 a 100; ciascun punto sul grafico viene diviso per il punto massimo o per 100” (si veda Che cosa indicano i numeri nel grafico? dalla guida del prodotto). I valori restituiti sono dunque compresi fra 0 e 100.
Nel nostro caso si tratta di ricerche effettuate su un singolo termine di ricerca con i seguenti parametri: Google Ricerca Web, Italia, Gennaio 2004-Settembre 2011, Tutte le categorie.
Ho deciso di raccogliere per ciascuno degli 88 atenei e per la chiave generica “università” i valori restituiti per il mese di agosto e quello di settembre (mesi durante i quali sono aperte le iscrizioni)*. Per quanto riguarda i singoli atenei ho dovuto concatenare termini di ricerca costruiti ad hoc per ciascun ateneo**.
Al termine della fase di data entry avevo dunque a disposizione le seguenti serie aggregate di dati per il complesso degli 88 atenei: ricerche per la chiave università (media agosto/settembre e settembre), media dei volumi di ricerca per ogni singolo ateneo (media agosto/settembre e settembre), media delle ricerche per ogni singolo ateneo escludendo i casi in cui il volume di ricerca era 0 (media agosto/settembre e settembre).
A questo punto, allo scopo di rendere confrontabili i dati, ho normalizzato il numero di immatricolati per anno accademico e per ateneo seguendo la stessa strategia utilizzata da Google Insight for Search. Ho dunque individuato il valore massimo attribuendo ad esso il punteggio 100 e normalizzato di conseguenza gli altri valori. In questo modo avevo disponibili serie di valori confrontabili su una scala compresa fra 0 e 100.
Avendo deciso di prendere come riferimento i mesi di agosto e settembre avevo tuttavia due valori per anno per quanto riguarda il volume di ricerca ed uno solo per gli immatricolati. Ho dunque deciso fare la media fra il valore di agosto e quello di settembre ottenendo un indice sintetico del volume per un singolo anno (in un secondo momento ho anche utilizzato il solo dato di settembre come confronto).
Poiché i dati degli immatricolati partono dal 2003/2004 e quelli di Google Insight for Search dal 2004 ho deciso di prendere in considerazione i dati degli immatricolati a partire dall’anno accademico 2004/2005. A partire da quell’anno, se ci fosse correlazione, ad un certo andamento del volume di ricerche su Google, dovrebbe corrispondere un analogo pattern nelle immatricolazioni. Inoltre i dati già disponibili di Google Insight per il 2011 dovrebbero prevedere l’andamento degli immatricolati per l’anno accademico 2011/2012.
Vediamo dunque i risultati:

Confortato da questi risultati ho proceduto a calcolare l’indice di correlazione per ciascun ateneo confrontando le serie di immatricolati normalizzati per ateneo 2004/2005, 2005/2006, 2006/2007, 2007/2008, 2008/2009, 2009/2010, 2010/2011 con il volume di ricerca media agosto/settembre per le stringhe di ricerca specifiche di ciascun ateneo.
Ecco il risultato:

In questo caso i risultati sono contrastanti. Nella maggior parte dei casi (47) non si riscontrano correlazioni significative ed in 3 addirittura la correlazione è negativa. Nei restanti 38 casi  la correlazione è positiva e significativa (ovvero maggiore o uguale a 0,7).
Provando a calcolare lo stesso indice di correlazione con i soli dati di settembre la situazione non cambia di molto con 50 casi di non correlazione, uno solo di correlazione negativa e 37 di correlazione positiva.
Come al solito tutti i dati che ho raccolto sono disponibili pubblicamente in un foglio di calcolo di Google Documenti.
Dunque come spesso accade quando si lavoro con le correlazioni non emerge un risultato chiaro e incontrovertibile.
Le correlazioni totali appaiono significative, ma quelle per singolo ateneo lo sono solo per un ristretto gruppo di atenei.
Lascio al lettore il piacere di scoprire l’andamento del volume di ricerca dell’agosto e settembre appena conclusi e che cosa questo potrebbe pre-configurare rispetto al numero degli immatricolati 2011/2012.
E voi cosa ne pensate? La correlazione c’è o no?
*Si tratta di un indicatore piuttosto rozzo considerando che, anche nei mesi di agosto e settembre, utenti con intenti molto diversi potrebbero usare i termini di ricerca presi in esame. Esiste tuttavia la possibilità che l’effetto di questi utenti venga essere assorbito dal trend di chi invece cerca su Google il nome dell’università alla quale pensa di iscriversi.
** I termini di ricerca considerati sono disponibili nel foglio di calcolo insieme a tutti gli altri dati nella colonna “termini di ricerca” del foglio sui volumi di ricerca. Nel corso dei vari tentativi mi sono accorto che i termini di ricerca contenenti il solo nome di dominio dell’ateneo (uniurb, unibo, unicatt, etc) sono in ascesa e vengono spesso usati al posto del nome per esteso dell’Università. Mi sono dunque chiesto se inserire anche il nome di dominio come parte della stringa di ricerca. Alla fine ho deciso di non inserire questo termine di ricerca (tranne in specifici casi come “Luiss”) perchè credo che uno studente che usa Internet per cercare l’ateneo a cui iscriversi difficilmente utilizzi queste chiavi di ricerca (ma posso anche sbagliarmi).
 Proseguendo nella serie di articoli sull’utilizzo dei social media per predire il presente ho deciso questa volta di mettere a confronto il volume di ricerca su Google ed il numero di immatricolati negli atenei italiani.
L’andamento delle ricerche su Google mostra infatti una periodicità piuttosto marcata che vede nel mese di settembre il picco più alto di interesse. Questo vale sia per la generica chiave “università” che per chiavi specifiche ai diversi atenei.
Di qui la domanda: esiste una correlazione fra volume di ricerche su Google e numero degli immatricolati in un certo anno accademico?
Ho provato a verificare questa ipotesi a partire dai dati sugli immatricolati disponibili sull’anagrafe nazionale degli studenti del sito del MIUR e al servizio Google Insight for Search.
Per quanto riguarda gli immatricolati mi sono limitato a scaricare i dati disponibili (partono dall’anno accademico 2003/2004) e accorpare i fogli excel divisi per anno accademico in un’unica tabella. Al momento risultano attivi 88 atenei e l’andamento complessivo degli immatricolati è il seguente

Per misurare il volume di ricerca su Google ho effettuato delle query su Google Insight for Search. Questo servizio restitutrice “il numero di ricerche web eseguite con un termine specifico rispetto al numero totale di ricerche effettuate su Google in un arco di tempo. Non rappresentano i valori del volume di ricerca assoluto, in quanto i dati vengono normalizzati e presentati in scala da 0 a 100; ciascun punto sul grafico viene diviso per il punto massimo o per 100” (si veda Che cosa indicano i numeri nel grafico? dalla guida del prodotto). I valori restituiti sono dunque compresi fra 0 e 100.
Nel nostro caso si tratta di ricerche effettuate su un singolo termine di ricerca con i seguenti parametri: Google Ricerca Web, Italia, Gennaio 2004-Settembre 2011, Tutte le categorie.
Ho deciso di raccogliere per ciascuno degli 88 atenei e per la chiave generica “università” i valori restituiti per il mese di agosto e quello di settembre (mesi durante i quali sono aperte le iscrizioni)*. Per quanto riguarda i singoli atenei ho dovuto concatenare termini di ricerca costruiti ad hoc per ciascun ateneo**.
Al termine della fase di data entry avevo dunque a disposizione le seguenti serie aggregate di dati per il complesso degli 88 atenei: ricerche per la chiave università (media agosto/settembre e settembre), media dei volumi di ricerca per ogni singolo ateneo (media agosto/settembre e settembre), media delle ricerche per ogni singolo ateneo escludendo i casi in cui il volume di ricerca era 0 (media agosto/settembre e settembre).
A questo punto, allo scopo di rendere confrontabili i dati, ho normalizzato il numero di immatricolati per anno accademico e per ateneo seguendo la stessa strategia utilizzata da Google Insight for Search. Ho dunque individuato il valore massimo attribuendo ad esso il punteggio 100 e normalizzato di conseguenza gli altri valori. In questo modo avevo disponibili serie di valori confrontabili su una scala compresa fra 0 e 100.
Avendo deciso di prendere come riferimento i mesi di agosto e settembre avevo tuttavia due valori per anno per quanto riguarda il volume di ricerca ed uno solo per gli immatricolati. Ho dunque deciso fare la media fra il valore di agosto e quello di settembre ottenendo un indice sintetico del volume per un singolo anno (in un secondo momento ho anche utilizzato il solo dato di settembre come confronto).
Poiché i dati degli immatricolati partono dal 2003/2004 e quelli di Google Insight for Search dal 2004 ho deciso di prendere in considerazione i dati degli immatricolati a partire dall’anno accademico 2004/2005. A partire da quell’anno, se ci fosse correlazione, ad un certo andamento del volume di ricerche su Google, dovrebbe corrispondere un analogo pattern nelle immatricolazioni. Inoltre i dati già disponibili di Google Insight per il 2011 dovrebbero prevedere l’andamento degli immatricolati per l’anno accademico 2011/2012.
Vediamo dunque i risultati:

Confortato da questi risultati ho proceduto a calcolare l’indice di correlazione per ciascun ateneo confrontando le serie di immatricolati normalizzati per ateneo 2004/2005, 2005/2006, 2006/2007, 2007/2008, 2008/2009, 2009/2010, 2010/2011 con il volume di ricerca media agosto/settembre per le stringhe di ricerca specifiche di ciascun ateneo.
Ecco il risultato:

In questo caso i risultati sono contrastanti. Nella maggior parte dei casi (47) non si riscontrano correlazioni significative ed in 3 addirittura la correlazione è negativa. Nei restanti 38 casi  la correlazione è positiva e significativa (ovvero maggiore o uguale a 0,7).
Provando a calcolare lo stesso indice di correlazione con i soli dati di settembre la situazione non cambia di molto con 50 casi di non correlazione, uno solo di correlazione negativa e 37 di correlazione positiva.
Come al solito tutti i dati che ho raccolto sono disponibili pubblicamente in un foglio di calcolo di Google Documenti.
Dunque come spesso accade quando si lavoro con le correlazioni non emerge un risultato chiaro e incontrovertibile.
Le correlazioni totali appaiono significative, ma quelle per singolo ateneo lo sono solo per un ristretto gruppo di atenei.
Lascio al lettore il piacere di scoprire l’andamento del volume di ricerca dell’agosto e settembre appena conclusi e che cosa questo potrebbe pre-configurare rispetto al numero degli immatricolati 2011/2012.
E voi cosa ne pensate? La correlazione c’è o no?
*Si tratta di un indicatore piuttosto rozzo considerando che, anche nei mesi di agosto e settembre, utenti con intenti molto diversi potrebbero usare i termini di ricerca presi in esame. Esiste tuttavia la possibilità che l’effetto di questi utenti venga essere assorbito dal trend di chi invece cerca su Google il nome dell’università alla quale pensa di iscriversi.
** I termini di ricerca considerati sono disponibili nel foglio di calcolo insieme a tutti gli altri dati nella colonna “termini di ricerca” del foglio sui volumi di ricerca. Nel corso dei vari tentativi mi sono accorto che i termini di ricerca contenenti il solo nome di dominio dell’ateneo (uniurb, unibo, unicatt, etc) sono in ascesa e vengono spesso usati al posto del nome per esteso dell’Università. Mi sono dunque chiesto se inserire anche il nome di dominio come parte della stringa di ricerca. Alla fine ho deciso di non inserire questo termine di ricerca (tranne in specifici casi come “Luiss”) perchè credo che uno studente che usa Internet per cercare l’ateneo a cui iscriversi difficilmente utilizzi queste chiavi di ricerca (ma posso anche sbagliarmi).
 Proseguendo nella serie di articoli sull’utilizzo dei social media per predire il presente ho deciso questa volta di mettere a confronto il volume di ricerca su Google ed il numero di immatricolati negli atenei italiani.
L’andamento delle ricerche su Google mostra infatti una periodicità piuttosto marcata che vede nel mese di settembre il picco più alto di interesse. Questo vale sia per la generica chiave “università” che per chiavi specifiche ai diversi atenei.
Di qui la domanda: esiste una correlazione fra volume di ricerche su Google e numero degli immatricolati in un certo anno accademico?
Ho provato a verificare questa ipotesi a partire dai dati sugli immatricolati disponibili sull’anagrafe nazionale degli studenti del sito del MIUR e al servizio Google Insight for Search.
Per quanto riguarda gli immatricolati mi sono limitato a scaricare i dati disponibili (partono dall’anno accademico 2003/2004) e accorpare i fogli excel divisi per anno accademico in un’unica tabella. Al momento risultano attivi 88 atenei e l’andamento complessivo degli immatricolati è il seguente

Per misurare il volume di ricerca su Google ho effettuato delle query su Google Insight for Search. Questo servizio restitutrice “il numero di ricerche web eseguite con un termine specifico rispetto al numero totale di ricerche effettuate su Google in un arco di tempo. Non rappresentano i valori del volume di ricerca assoluto, in quanto i dati vengono normalizzati e presentati in scala da 0 a 100; ciascun punto sul grafico viene diviso per il punto massimo o per 100” (si veda Che cosa indicano i numeri nel grafico? dalla guida del prodotto). I valori restituiti sono dunque compresi fra 0 e 100.
Nel nostro caso si tratta di ricerche effettuate su un singolo termine di ricerca con i seguenti parametri: Google Ricerca Web, Italia, Gennaio 2004-Settembre 2011, Tutte le categorie.
Ho deciso di raccogliere per ciascuno degli 88 atenei e per la chiave generica “università” i valori restituiti per il mese di agosto e quello di settembre (mesi durante i quali sono aperte le iscrizioni)*. Per quanto riguarda i singoli atenei ho dovuto concatenare termini di ricerca costruiti ad hoc per ciascun ateneo**.
Al termine della fase di data entry avevo dunque a disposizione le seguenti serie aggregate di dati per il complesso degli 88 atenei: ricerche per la chiave università (media agosto/settembre e settembre), media dei volumi di ricerca per ogni singolo ateneo (media agosto/settembre e settembre), media delle ricerche per ogni singolo ateneo escludendo i casi in cui il volume di ricerca era 0 (media agosto/settembre e settembre).
A questo punto, allo scopo di rendere confrontabili i dati, ho normalizzato il numero di immatricolati per anno accademico e per ateneo seguendo la stessa strategia utilizzata da Google Insight for Search. Ho dunque individuato il valore massimo attribuendo ad esso il punteggio 100 e normalizzato di conseguenza gli altri valori. In questo modo avevo disponibili serie di valori confrontabili su una scala compresa fra 0 e 100.
Avendo deciso di prendere come riferimento i mesi di agosto e settembre avevo tuttavia due valori per anno per quanto riguarda il volume di ricerca ed uno solo per gli immatricolati. Ho dunque deciso fare la media fra il valore di agosto e quello di settembre ottenendo un indice sintetico del volume per un singolo anno (in un secondo momento ho anche utilizzato il solo dato di settembre come confronto).
Poiché i dati degli immatricolati partono dal 2003/2004 e quelli di Google Insight for Search dal 2004 ho deciso di prendere in considerazione i dati degli immatricolati a partire dall’anno accademico 2004/2005. A partire da quell’anno, se ci fosse correlazione, ad un certo andamento del volume di ricerche su Google, dovrebbe corrispondere un analogo pattern nelle immatricolazioni. Inoltre i dati già disponibili di Google Insight per il 2011 dovrebbero prevedere l’andamento degli immatricolati per l’anno accademico 2011/2012.
Vediamo dunque i risultati:

Confortato da questi risultati ho proceduto a calcolare l’indice di correlazione per ciascun ateneo confrontando le serie di immatricolati normalizzati per ateneo 2004/2005, 2005/2006, 2006/2007, 2007/2008, 2008/2009, 2009/2010, 2010/2011 con il volume di ricerca media agosto/settembre per le stringhe di ricerca specifiche di ciascun ateneo.
Ecco il risultato:

In questo caso i risultati sono contrastanti. Nella maggior parte dei casi (47) non si riscontrano correlazioni significative ed in 3 addirittura la correlazione è negativa. Nei restanti 38 casi  la correlazione è positiva e significativa (ovvero maggiore o uguale a 0,7).
Provando a calcolare lo stesso indice di correlazione con i soli dati di settembre la situazione non cambia di molto con 50 casi di non correlazione, uno solo di correlazione negativa e 37 di correlazione positiva.
Come al solito tutti i dati che ho raccolto sono disponibili pubblicamente in un foglio di calcolo di Google Documenti.
Dunque come spesso accade quando si lavoro con le correlazioni non emerge un risultato chiaro e incontrovertibile.
Le correlazioni totali appaiono significative, ma quelle per singolo ateneo lo sono solo per un ristretto gruppo di atenei.
Lascio al lettore il piacere di scoprire l’andamento del volume di ricerca dell’agosto e settembre appena conclusi e che cosa questo potrebbe pre-configurare rispetto al numero degli immatricolati 2011/2012.
E voi cosa ne pensate? La correlazione c’è o no?
*Si tratta di un indicatore piuttosto rozzo considerando che, anche nei mesi di agosto e settembre, utenti con intenti molto diversi potrebbero usare i termini di ricerca presi in esame. Esiste tuttavia la possibilità che l’effetto di questi utenti venga essere assorbito dal trend di chi invece cerca su Google il nome dell’università alla quale pensa di iscriversi.
** I termini di ricerca considerati sono disponibili nel foglio di calcolo insieme a tutti gli altri dati nella colonna “termini di ricerca” del foglio sui volumi di ricerca. Nel corso dei vari tentativi mi sono accorto che i termini di ricerca contenenti il solo nome di dominio dell’ateneo (uniurb, unibo, unicatt, etc) sono in ascesa e vengono spesso usati al posto del nome per esteso dell’Università. Mi sono dunque chiesto se inserire anche il nome di dominio come parte della stringa di ricerca. Alla fine ho deciso di non inserire questo termine di ricerca (tranne in specifici casi come “Luiss”) perchè credo che uno studente che usa Internet per cercare l’ateneo a cui iscriversi difficilmente utilizzi queste chiavi di ricerca (ma posso anche sbagliarmi).