Negli ultimi mesi, si è scatenato un putiferio attorno all’advertisement online. Nonostante in Italia se ne sia parlato poco, gli addetti ai lavori sono ben consci di ciò che sta succedendo oltre oceano. I colossi americani che si occupano di advertisement (e.g. Facebook e Instagram, Google e YouTube, et. al) stanno combattendo un’intrepida battaglia per conservare la fiducia del mercato. Fiducia che, di giorno in giorno, scricchiola e si sbriciola sotto i loro piedi.

Quando tutto ebbe inizio

Il primo seme che ci ha poi portato a quella che oggi conosciamo come Adpocalypse è germogliato su YouTube non più di 10 mesi fa. A Febbraio di quest anno, alcuni global top brands hanno dichiarato di non voler più utilizzare YouTube come piattaforma per pubblicizzare i loro prodotti e servizi. Il motivo? Si scoprì che alcuni video che promuovevano la violenza e il terrorismo erano preceduti dalla pubblicità di alcuni top brand. Come immaginerete, il danno d’immagine non è stato ben digerito dagli sponsor.

La risposta di Google, di cui YouTube fa parte, fu introdurre un sistema automatico in grado di setacciare i video presenti sulla piattaforma; questo motore va alla ricerca di immagini o contenuti ritenuti “controversi” e demonetizzare i creatori di contenuti non appropriati, rimuovendo la pubblicità da questi video.

Alcuni top creators di YouTube (così vengono definiti i canali dei giganti della piattaforma) subirono drastici tagli agli incassi. Alcuni creatori hanno dichiarato di aver perso fino all’80% delle revenues a ridosso della protesta dei brands; le perdite sono scese al -30% dopo l’introduzione di queste misure di contenimento che hanno convinto alcuni brand a rientrare sulla piattaforma.

Il tempo cura le ferite – oppure no?

Come tutti i sistemi, anche quello di YouTube si è evoluto nel tempo. Il motore di ricerca che segnala i contenuti inappropriati è migliorato e i meccanismi di machine learning hanno imparato dai propri errori e da un campione sempre più ampio. Dall’altro lato, come immaginerete, la perfezione è lontana anni luce.

YouTube ha così deciso di cambiare modalità: il sistema automatico che flagga i contenuti è diventato più aggressivo e il numero di video demonetizzati è notevolmente aumentato. Uno dei motivi è che molti creators hanno inventato modi sempre più creativi ed evoluti per sfuggire al controllo (chi ha detto che solo noi Italiani siamo bravi a fare i furbetti?)

La novità per i creatori è che c’è la possibilità di fare appello e, dopo il controllo di un umano, molto spesso le pubblicità vengono di nuovo introdotte nei video. La situazione sembrerebbe migliorata, giusto? E invece no, o almeno non per tutti. Infatti, soprattutto i canali più famosi guadagnano moltissimo nelle primissime ore dopo la release del video, perché gli iscritti più affezionati vengono notificati e consumano il video in fretta e furia. Di conseguenza, il controllo umano (che richiede comunque molte ore) arriva troppo tardi a riposizionare la pubblicità. Risultato? Molti soldi persi, molte lamentele e una naturale migrazione verso “nuove” piattaforme come Twitch.

Gli ultimi sviluppi

Mentre Google lotta contro il tempo per evitare la fuga in massa dei creators (ricordiamo tutti la fine che ha fatto Vine, giusto?), spunta un nuovo nome eccellente: Instagram, figlio acquisito di Facebook. A fine Novembre, le principali testate online americane riportavano la notizia che la sezione live di Instagram fosse stata inondata da contenuti pornografici.

Ovviamente, una serie di dichiarazioni mantenute anonime si sono susseguite come i botti a Capodanno. Alcuni top manager di ad agencies hanno dichiarato che questo è il motivo per cui non fanno pubblicità online; la frase chiave è “non abbiamo lo stesso controllo che abbiamo in TV”. Da parte sua, un portavoce di Instagram ha risposto scusandosi e promettendo più controlli e cancellazione dei profili coinvolti in queste pratiche non ortodosse.

Il peggio deve ancora venire

Vorrei chiudere con un paragrafo pieno di speranza e fiducia nel modello, ma la luce in fondo al tunnel ancora non si vede. Anzi, pare proprio che ciò che è emerso finora sia soltanto la punta dell’iceberg.

As esempio, negli ultimi mesi è scoppiato un putiferio intorno a Periscope, la piattaforma di live video streaming di Twitter (che ancora non ha sfondato in Italia). Si è scoperto che un numero di utenti, assistendo live agli streaming di ragazzini, alcuni addirittura in età da scuole elementari, inondavano le chat di richieste di spogliarsi o girare video hard. Non si può che etichettarlo come un nuovo stadio di avanzamento della pedofilia digitale.

Qual è la soluzione?

Difficile rispondere a questa domanda. Chiaramente, dare la possibilità agli utenti di mostrare al mondo contenuti registrati in diretta rimuove quel filtro che consente alle aziende di prevenire potenziali scandali. D’altra parte, impedire il live streaming sarebbe molto dannoso per l’ambiente social, ora che questa è diventata una componente enorme del traffico.

Sicuramente l’evoluzione del machine learning consentirà a tool automatici di bloccare istantaneamente trasmissioni inappropriate, con una sempre maggiore accuratezza. Qualsiasi altra tecnica, compresa la vigilanza degli altri utenti, non potrebbe arginare il problema.

Chiudo con la considerazione più terribile di tutte. Si potrebbe pensare che, con l’utilizzo di filtri messi a disposizione dai maggiori servizi online, si possa impedire con un click che questi contenuti raggiungano la marea di bambini (sempre più piccoli e sempre più numerosi) che ogni utilizzano una delle piattaforme sopra citate per imparare, giocare e divertirsi. Pensate a YouTube, che ha addirittura rilasciato un’applicazione mobile dedicata al 100% ai bambini (i.e. YouTube Kids), da cui non è possibile accedere a contenuti controversi. Problema risolto, no?

YouTube (NOT) for Kids

Giusto il mese scorso, YouTube è stato inondato di segnalazioni a tal proposito: sull’app Kids, un rilevante numero di canali riportava contenuto inappropriato alla visione dei bambini. Immagino le facce dei tecnici di Google, all’apertura di video con esseri umani mascherati da Spider Man o Elsa di Frozen, intenti ad inscenare scenette dal contenuto estremamente violento o a sfondo apertamente sessuale. Mi piacerebbe fosse una battuta; purtroppo, questa tipologia di contenuti è esistito (ed esiste) davvero.

La strada è ancora lunga e tortuosa, ma quello che è certo è che le piattaforme dovranno prendere misure drastiche. Del resto, mentre molti definiscono Facebook e Google “tech companies”, non è difficile capire come questi colossi basino la loro fortuna sulla pubblicità. Non ci credete? Dati 2016 ufficiali alla mano: l’88% degli introiti di Google e il 95% di quelli di Facebook derivano dall’advertisement. Un motivo in più per correre ai ripari. Più velocemente possibile.