Internet è sempre meno umano

Internet è sempre meno umano

Negli ultimi tempi alcuni utenti su X e Mastodon suggeriscono di filtrare le proprie ricerche su Google escludendo i risultati pubblicati dal 2023 in poi. Il motivo? Liberarsi delle decine di pagine internet create o ottimizzate automaticamente con l’IA generativa. Sembra un’esagerazione, ma questo trucchetto fornisce davvero risultati migliori per le ricerche in inglese, e presto ciò potrebbe accadere anche per i siti italiani. Oggi, grazie ai progressi dei grandi modelli linguistici e alla loro facilità di accesso, creare pagine ed articoli su praticamente qualunque argomento non solo è facile, ma è un compito completamente automatizzabile; e così, quando si cercano informazioni su una particolare ricetta della cucina thai, o su una poco nota pianta per il giardinaggio, ecco spuntare risultati dal titolo estremamente specifico ed adatto alla nostra ricerca, ma dal contenuto non sempre soddisfacente: vago alle volte, superficiale se non anche falsato, fuori tema o completamente insensato; o magari traduzioni raffazzonate – e ne risultano errori, passaggi incomprensibili e periodi formulati in modo bizzarro.

Questi articoli rendono l’utilizzo dei motori di ricerca un’esperienza frustrante e laboriosa, esistono da molto tempo e sono frutto dell’utilizzo di strategie di SEO (Search Engine Optimization) il cui obiettivo è far arrivare il sito internet in cima alla lista dei risultati della ricerca: sfruttando il comportamento noto di motori come Google, Bing, Opera, che scansionano le pagine in cerca di parole chiave, link e informazioni utili è possibile produrre siti a regola d’arte che compariranno quasi sempre per primi. Esistono da tempo, ma l’arrivo dei grandi modelli linguistici da un anno a questa parte ne ha permesso la creazione su una scala mai vista prima, e per questo limitare le ricerche a prima del 2023 modifica così tanto i risultati.

Sembra di vedere avverarsi quella che è divenuta nota come Dead Internet Theory, la teoria del complotto secondo cui la stragrande maggioranza dei contenuti e del traffico su internet sarebbero automatici, e che i siti e i social network sarebbero popolati da eserciti sterminati di bot progettati per il controllo mentale. Senza inoltrarsi nelle stramberie della teoria, del fatto che internet sia popolato da automi ce ne si può accorgere continuamente nell’uso quotidiano: osservando i post e i commenti su X, Youtube, Instagram, spesso particolarmente ripetitivi o dei semplici sommari sull’argomento; le innumerevoli pagine di tutorial e ricette tradotte grossolanamente e con informazioni superflue o generiche; tantissimi libri pubblicati su Amazon da autori inesistenti, dalle trame sconclusionate o contenenti informazioni scorrette. L’impressione è quella di essere circondati da utenti e contenuti “senza anima” ovunque si navighi.

Ci si rende conto di quanto problematica sia questa proliferazione automatizzata di contenuti quando si considera quante e quanto diverse sono le azioni che un bot può compiere oggi al posto di un umano, con risultati paragonabili a quelli di un umano, e senza immediati segni di riconoscimento: conversare via audio o via testo, reagire ai post, scrivere articoli, inviare mail e molto altro. Questo vuol dire, per esempio, che è possibile essere la prima persona a vedere uno specifico contenuto, pur essendoci diversi commenti entusiasti a suo corredo. Ma significa anche che spesso alcuni contenuti non vengono mai visti da alcun umano e ricevono interazioni unicamente da bot, i quali fanno il loro solito lavoro, ossia stimolare il traffico verso quel contenuto, influenzando così le rilevazioni dell’interesse effettivo verso di esso. Queste informazioni falsate, a loro volta, fungono da guida per la futura produzione e classificazione di ulteriori contenuti. In una situazione del genere le capacità dei bot e delle procedure automatiche in generale di produrre contenuti fruibili per gli esseri umani potrebbero degradarsi molto velocemente, perché ottimizzate su un bacino di utenza formato via via da meno esseri umani, nonché su contenuti generati automaticamente.

Internet quindi sta davvero morendo? A dirla tutta, non è mai stato così brulicante di vita, con cinque miliardi e mezzo di utenti che non accennano a diminuire. Considerato, però, che quasi la metà del traffico online è oramai costituito dalle azioni dei bot, interagire con altri esseri umani potrebbe in futuro diventare molto più difficile. Senza adeguati provvedimenti, l’attuale situazione non può che condurre a social network e piattaforme popolate perlopiù da zombie, dove gli umani sono relativamente pochi e ben nascosti. E cosa si può fare, d’altronde? Come sta già accadendo, le piattaforme ed i siti richiederanno ai loro utenti prove di autenticità sempre più invadenti, come documenti di identità e dati biometrici. Sarà anche una buona occasione per coltivare la diffidenza nei confronti degli sconosciuti in rete, buona pratica dell’antichità internettiana che ora fatica a risorgere.

È anche il contenuto di internet a star cambiando, e sarà ancora più strano, alieno, esoterico. Per molti utenti poco informati sulle più recenti prodezze dell’Intelligenza Artificiale, foto e testi generati automaticamente, soprattutto quando incorporati in un profilo utente verosimile, possono risultare indistinguibili dagli altri – semplicemente perché mancano metri di paragone. Riconoscere l’attendibilità delle fonti sarà ancora più difficile, e gli utenti potrebbero dover affidarsi a nuovi – evidentemente automatici- strumenti esterni per certificare la veridicità di una foto, un video o l’identità di qualcuno: mediata anche questa mansione, diventa facile immaginare un internet utilizzato quasi esclusivamente da bot, in cui qualche sistema separa da un imponente flusso di contenuti automatici quelli veri da quelli falsi, come si separano le mail legittime dallo spam, e li fornisce agli utenti. Non è affatto una realtà distante da quella odierna, in cui i post degli utenti passano sotto numerosi filtri di moderazione prima e dopo la pubblicazione.

Sarebbe sciocco pensare che la situazione possa tornare facilmente sotto controllo, considerato che si stanno esacerbando problemi già esistenti, endemici della rete, con l’utilizzo di nuove ed avanzate tecnologie. La battaglia per il controllo e la moderazione dell’uso pubblico di queste tecnologie è appena agli inizi, e c’è in gioco qualcosa di più: il sentire comune nei confronti dell’autenticità e dell’alterità on-line, che si diversifica e assume forme nuove e ingannevoli, conducendoci verso una nuova forma di coesistenza digitale.

Se poi si guarda al caso di Perplexity.ai, una chatbot che effettua ricerche su internet al posto dell’utente per sintetizzare le informazioni scegliendo autonomamente le fonti, non si può fare a meno di ricordare come l’arrivo dei grandi modelli linguistici sia stato inizialmente salutato come la soluzione alla gestione delle informazioni in rete. Oggi possiamo osservare coi nostri occhi come sono divenuti i principali fautori di un internet inquinato, ipertrofico e sempre più pericoloso.

Versione estesa del post pubblicato su Frammenti
Scritto da Dario Chianese, Phd Student @ University of Naples “Federico II” (Game of Tech)

Internet è sempre meno umano

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna su