La Seconda Grande Disintermediazione

Le conseguenze della robotizzazione e della digitalizzazione sulla produzione e sulla distribuzione di informazione ed intrattenimento sono molteplici e stanno accelerando.

In più di un intervento ho già descritto come, in numerosi campi della produzione di contenuti, lo sviluppo del machine learning e della robotica abbiano reso possibile produrre senza (o con minimo) contributo umano a parità di risultato. Il fenomeno del giornalista robot è ormai realtà quotidiana, soprattutto per le grandi agenzie di informazione finanziaria e sportiva, e ha permesso un modesto ma sensibile ritorno della profittabilità nel settore. Associated Press o Bloomberg, per tacere di BBC, usano ormai preponderantemente il microprocessore per creare gran parte del contenuto semplice, come la cronaca di un risultato sportivo o la pubblicazione della trimestrale di società quotata; fidando che l’immediatezza dell’aspetto informativo sia preponderante rispetto a una certa ripetitività dello stile.

Negli ultimi anni, poi, l’applicazione del machine learning ha contribuito ad allargare lo spazio di applicazione del giornalismo robot, producendo anche contributi più complessi grazie alla capacità del software di applicare regole desunte dalla “lettura” di migliaia di contenuti e dalla distillazione delle caratteristiche di questi contenuti. Si può dire, quindi, che nel campo della produzione dei contenuti lo sviluppo dell’intelligenza artificiale porti e prometta benefici soprattutto all’editore, permettendo la produzione di contenuto a prezzi decrescenti.

La situazione cambia, però, quando applichiamo queste tecnologie alla pubblicazione dei contenuti e dell’informazione. Il vecchio modello in cui un editore, un direttore o una redazione filtravano e costruivano la dieta mediatica dei singoli e della nazione attraverso la scarsità dello spazio cartaceo, radiofonico o televisivo si è sgretolata. Ha abdicato sotto i colpi dell’abbondanza di prodotto e di supporti al consumo dello stesso. La capacità del sistema globale di distribuzione digitale dipende oggi, dall’efficienza nel selezionare e proporre miliardi di diete mediatiche individuali e collettive a fronte di una produzione di informazione ed intrattenimento cresciuta in maniera esponenziale. L’individualità sta non solo nella scelta di quali contenuti consumare, ma anche di quando e dove, su che supporto o con che modello di attenzione, potendo contenere una pluralità di modelli di consumo per ciascun individuo in ciascun momento. 

Per rispondere a questa esigenza, le grandi piattaforme digitali globali, come Google o Facebook, hanno sviluppato algoritmi proprietari che svolgono questo compito: ordinare l’abbondanza, piegando  modelli di scoperta e distribuzione dei contenuti a regole da loro imposte. Regole che, sostenute dal successo della piattaforma stessa nel creare quotidianità d’uso, modificano di fatto lo stile di produzione dei contenuti, che si devono adattare a queste regole, e costruiscono circolarmente il successo dell’algoritmo che si trova ormai a organizzare un mondo costruito a sua imagine e somiglianza. Il successo di queste piattaforme è stato il primo grande momento di disintermediazione dell’editore tradizionale e ne ha immediatamente minato il modello di sostenibilità economica. 

La tecnologia, però, detta e allo stesso tempo insegue la domanda collettiva; questa richiede più libertà di scelta, maggiore di quella che un algoritmo disegnato da terzi per sostenere il proprio modello pubblicitario possa dare. Ci muoviamo, oggi, verso un secondo stadio dell’applicazione dell’intelligenza artificiale alla distribuzione dei contenuti.; uno stadio che indebolirà non solo gli editori, ma soprattutto le grandi piattaforme digitali. Il nuovo modello prevede, infatti, che il singolo lettore o individuo possa abbonarsi a un servizio (provate deepnews.ai) in cui si sceglie un argomento; la macchina propone quindi con regolarità o senza soluzione di continuità (a vostra scelta) un flusso di contenuti rilevanti. Osservando il  progredire delle vostre scelte (leggo, non leggo, ci passo un secondo o un minuto, cancello o archivio…) l’algoritmo adatta il flusso ai tipi di contenuto, di approccio, di stile e di consumo (quando, su che schermo, etc) che preferite, restituendovi, nel corso del tempo, un flusso di informazione personalizzato e esaustivo.

La capacità del machine learning applicato alla distribuzione dei contenuti, è quella di non dover imporre, per funzionare, al contenuto stesso di essere formattato in un modo univoco (vedi SEO). Piuttosto impara nel corso del tempo quali sono gli attributi del contenuto che ne rendono la distribuzione un successo per il proprio lettore. L’impatto di questo modello è esiziale per il ruolo dell’editore, relegandolo al solo finanziamento della produzione e ad un ulteriore rimozione di un grado dal rapporto con il consumatore, ma travolge anche quello della piattaforma digitale, disintermediandola per la prima volta in quello che è il ciclo della vita attraverso il prisma della tecnologia digitale.

Condividi