In questo periodo, sentiamo l’esigenza di aiutare a far riflettere, a cercare di uscire (e far uscire) dalle bolle delle opinioni che sono frutto non necessariamente di scelte ponderate, ma di prese di posizione troppo spesso influenzate dal rumore di fondo, dall’abitudine e dalla cultura degli schieramenti, dal tono di voce ormai diventato la normalità; i social sono forse il territorio che più ha creato questo approccio, ma il problema è che tutto si è adattato a una conversazione e a un confronto che non vuole portare al provare a capire le opinioni altrui, ma al decidere se dobbiamo usare il pollice verso l’alto o verso il basso in quella determinata situazione e area di discussione.
Di questo ha parlato, un paio di giorni fa, Wilson, il podcast de “ilPost”, curato da Francesco Costa, giornalista che dopo avere svolto il suo ruolo di vice direttore e avere accompagnato per anni molte persone - siamo tra queste - alla conduzione quotidiana di Morning, podcast di commento degli eventi della giornata partendo dalle notizie pubblicate dai giornali (una rassegna stampa, amatissima per la sua personalità e per il suo ritmo), è stato nominato direttore, al posto del fondatore Luca Sofri (che rimane ovviamente come direttore editoriale e come punto di riferimento di una delle realtà più illuminate e lungimiranti del panorama dell’editoria dell’informazione in Italia). Con questa “promozione” Francesco Costa ha dovuto abbandonare la conduzione di Morning, ma si è ritagliato uno spazio settimanale di commento, sempre in podcast: Wilson, appunto. Nella puntata dello scorso giovedì, si è parlato del tema “da che parte stanno i giornali”, che oltre a essere un interessante discorso che riguarda tutti noi, mette proprio in evidenza la grave e pericolosa attitudine sempre più presente del volere un’informazione neutra e corretta fino al momento in cui si vuole che questa informazione “prenda una posizione”, dica quello che vogliamo sentire, quello in cui crediamo. Vi consigliamo vivamente di sentirla, la trovate gratuitamente qui, oppure sulla vostra piattaforma podcast preferita: Apple Podcast o Spotify.
Noi non siamo un giornale di informazione che parla di questioni del mondo, e abbiamo un ruolo di “opinionisti”, non che questo ci salvi o debba salvarci dalla correttezza, anzi. Quello che vogliamo dire è che le persone leggono questa nostra newsletter, alcuni (molti) da davvero tanti anni, e lo fanno perché in qualche modo hanno piacere ad avere una nostra opinione, si fidano della nostra visione e della nostra esperienza, che abbiamo provato a confermare come un valore negli anni. Però adoriamo la possibilità di confrontarci: diciamo, scriviamo, dichiariamo (e, di recente, anche con la nostra voce, con la versione podcast) quello in cui crediamo, e proviamo a farlo con garbo, usando un approccio articolato, ne spieghiamo motivazioni e conclusioni. Alla fine di ogni commento, possiamo trovare la vostra approvazione, o anche il vostro dissenso, e siamo aperti al confronto sano e costruttivo. Chiediamo e offriamo un pensiero che vada al di là degli slogan o delle conclusioni affrettate, non per “rispetto” (anche), ma specialmente perché combattiamo proprio quelle che sono le opinioni precotte e dichiarate a voce alta e sguaiata, perché sappiamo quando non c’è apertura e desiderio di capirsi, e allora lasciamo cadere eventuali battaglie fatte da schieramenti che non vogliono davvero trovare un percorso comune.
Negli anni, abbiamo parlato e difeso molte innovazioni che alcuni (anche molti) non condividevano, e per fortuna: ci hanno dato la possibilità di cambiare idea, di capire meglio, oppure di trovare modi per far comprendere meglio il nostro punto di vista. Il risultato è che ancora oggi, a distanza di decenni, ci sono persone che ci seguono non solo perché condividono il nostro pensiero, ma anche che, anche se non lo condividono, lo rispettano perché sanno che non è mercenario, e non è manipolatorio. In questi ultimi anni, lo spazio in questa newsletter è stato occupato sempre più dall’ingresso dell’intelligenza artificiale nel mondo dell’immagine, della fotografia, della creatività. E, lo sappiamo, il tema genera in alcuni fastidio, rabbia, paura, allontanamento. Di recente abbiamo sentito discutere e confrontare questa reazione a quella dei luddisti.
Il termine “luddisti” deriva da un movimento operaio inglese dell’inizio del diciannovesimo secolo chiamato luddismo. I luddisti erano operai che si opponevano all’introduzione delle nuove macchine industriali, specialmente i telai meccanici a vapore, perché ritenevano che queste tecnologie causassero disoccupazione e peggiorassero le condizioni lavorative. Il movimento prese il nome da Ned Ludd, un personaggio leggendario che si dice abbia distrutto un telaio come forma di protesta nel 1779.
I luddisti manifestavano la loro opposizione con azioni di sabotaggio contro i macchinari, vedendo in questi strumenti una minaccia per il loro lavoro e la loro vita. Oggi il termine “luddista” viene spesso usato in senso più ampio per indicare chi si oppone o è contrario all’innovazione tecnologica, anche se storicamente il movimento era più incentrato sulla difesa dei diritti dei lavoratori contro i cambiamenti indotti dalla rivoluzione industriale.
Oggi le preoccupazioni sull’intelligenza artificiale sono spesso di natura simile: molti temono che l’AI possa portare alla disoccupazione di massa, aumentare le disuguaglianze sociali, perdere il controllo sugli strumenti che creiamo e, in alcuni casi, minacciare la privacy, l’etica e la sicurezza. Si sollevano anche timori riguardo alle decisioni autonome e all’eventuale sostituzione degli esseri umani in molte professioni, oppure alla perdita di valore per quello che le persone hanno “creato” perché l’AI ha fagocitato, saccheggiato, rubato tutto.
Il futuro - siamo sempre stati dei narratori di futuro, provando a non esserlo in modo stupido - non dovrebbe essere visto come una distruzione, ma una trasformazione che richiede uno sforzo consapevole per costruire ponti tra passato e futuro, valorizzando esperienze e conoscenze pregresse mentre si sperimentano nuovi orizzonti. In questo senso, la critica luddista diventa uno stimolo a riflettere sul modo in cui innoviamo, per evitare derive tecnologiche dannose e privilegiare invece un progresso umano e inclusivo.
L’atteggiamento più produttivo verso l’innovazione è quello che combina consapevolezza critica e apertura, puntando a un futuro costruito insieme e non imposto, un processo in cui tecnologia e umanità si rafforzano reciprocamente.
Ma veniamo alle cose pratiche: oggi combattere l’AI è come provare a contestare il fatto che ci sia l’aria da respirare, l’energia elettrica per far funzionare le macchine. Non è una moda passeggera, non è un’innovazione di cui potremmo fare a meno, anche perché è già dentro a tutto quello che facciamo: alle scelte che facciamo quando mettiamo un like su un social, nel come scattare una immagine, nel funzionamento della nostra casa e della nostra automobile, nella medicina e nell’economia. Ovunque, e non da qualche mese, l’AI è il motore di tutto quello che conosciamo come “mondo”. Certo, possiamo farne a meno, esattamente come possiamo fare a meno dell’elettricità: una tenda nel bosco, un fuoco per scaldarsi, un allontanamento da tutto quello che è stato il progresso negli ultimi due secoli, lontani da Internet e dai telefoni. Sì, si può fare: ma davvero è quello che vogliamo?
Quindi va tutto bene? Dobbiamo soccombere, subire, non mettere in discussione? No, non va bene per nulla: troppo potere in mano a pochi, troppa concentrazione, troppi interessi, troppo consumo elettrico e idrico. Ma proprio perché se ne discute, qualcosa può cambiare. Non la guerra, ma la discussione che parte dal sapere, dallo studiare, dall’analizzare quali sono davvero i problemi. Questa settimana, alcune cose si sono mosse verso alternative interessanti, che di sicuro sono solo un segnale, il che non significa che questa sia la soluzione giusta, ma fanno capire che “possono esserci delle altre strade” rispetto a quelle fatte di muscoli, consumi, potenza, miliardi.
Per esempio, Samsung ha sviluppato un innovativo modello di intelligenza artificiale chiamato Tiny Recursive Model (TRM), un modello LLM (Large Language Model, quello che di fatto è il motore dei vari ChatGPT per capirci) con soli 7 milioni di parametri, una dimensione ridottissima rispetto ai modelli più grandi e conosciuti, costruiti invece da diversi miliardi di parametri. Questo modello è stato addestrato su pochissimi dati (circa 1000 esempi) eppure in certi casi dimostra prestazioni superiori o comparabili ai modelli molto più grandi e costosi, come quelli di OpenAI e Gemini 2.5 Pro, specialmente in compiti complessi di ragionamento. Forse questa innovazione potrebbe portarci a raggiungere livelli elevati di intelligenza artificiale con modelli molto più piccoli, leggeri e addestrati con pochi dati, aprendo la via a AI più sostenibili, efficienti, meno costose e più adatte a essere eseguite direttamente sui dispositivi degli utenti.
Su un altro fronte, Qualcomm ha acquisito questa settimana l’italiana Arduino per rafforzare la propria strategia nell’edge AI, ovvero l’AI eseguita direttamente su dispositivi periferici. L’obiettivo di Qualcomm è creare una piattaforma che unisca hardware open source accessibile (Arduino), software e servizi cloud, permettendo agli sviluppatori e produttori di portare modelli AI potenti ma leggeri su dispositivi reali con risorse limitate.
Questo si allinea con l’approccio che cerca di sviluppare modelli LLM molto piccoli ed efficienti, addestrati con pochi dati ma capaci di compiti di ragionamento complessi, e lo sviluppo e il rafforzamento di dispositivi hardware con risorse limitate è una strada attuabile (nei modi e nelle condizioni ancora tutte da verificare). In pratica, queste ed altre iniziative puntano a democratizzare e rendere più sostenibile l’adozione dell’intelligenza artificiale avanzata, facendo in modo che AI sofisticate possano girare localmente senza la necessità di enormi infrastrutture cloud. E questo vuol dire meno dati (da selezionare meglio, anche in rispetto del copyright), meno energia elettrica, meno consumo di acqua, macchine di processamento più piccole e accessibili a tutti, maggiore privacy. E, di colpo, l’AI prende o può prendere delle strade più sensate, più accessibili. Più corrette.
Essere “contro” non serve a nulla; lavorare per capire cosa non funziona o cosa deve andare meglio mette in evidenza il ruolo degli esseri umani; l’etica non arriva dal negazionismo, ma dall’empatia, dalla comprensione, dall’analisi delle opzioni. Dal dialogo e dalla cultura.
Vorremmo trovare più spazi per questo dialogo, per questo confronto, per trasmettere cultura e sapere, per indirizzare verso lo studio. Chi pensa di avere capito argomenti così complessi senza questa fatica, solo a istinto o per posizionamento di comodo, non fa che apparire come una macchina, quella stessa che vorrebbe combattere. Nel frattempo, le macchine crescono, si evolvono, guadagnano intelligenza emotiva. E allora il rischio è che potranno essere più umane di noi.
Buona domenica, ci ritroviamo settimana prossima.