L’ex dirigente di Meta, Nick Clegg, non rientra perfettamente nel campo degli “AI doomer” o dei “booster”. Egli sostiene invece una visione pragmatica dell’intelligenza artificiale, che ne riconosca il potenziale rifiutando sia le paure sensazionalistiche che le promesse esagerate. Da quando ha lasciato Meta all’inizio del 2025, Clegg ha assunto incarichi nel consiglio di amministrazione di Nscale (un’azienda di data center) ed Efekta (una startup educativa basata sull’intelligenza artificiale), segnalando il suo continuo interesse per le applicazioni pratiche della tecnologia.
I limiti dell’hype
Clegg respinge gli estremi del discorso sull’intelligenza artificiale, sostenendo che sia le previsioni apocalittiche che le affermazioni utopistiche sono guidate dall’interesse personale. Sottolinea che l’intelligenza artificiale eccelle in compiti specifici (come la codifica), ma fatica con altri, e che le sue interazioni “inquietanti” spesso portano a un antropomorfismo fuori luogo. Ciò è importante perché aspettative eccessive possono distrarre dai rischi reali e ostacolare una regolamentazione sensata.
L’intelligenza artificiale nell’istruzione: democratizzazione attraverso la personalizzazione
Clegg è particolarmente entusiasta del potenziale dell’intelligenza artificiale nel trasformare l’istruzione, soprattutto nei mercati sottoserviti come l’America Latina e il Sud-est asiatico. L’assistente didattico AI di Efekta mira a fornire istruzioni personalizzate su larga scala, affrontando la carenza cronica di insegnanti e offrendo un accesso equo a un’istruzione di qualità. Crede che l’intelligenza artificiale possa superare i limiti delle classi tradizionali adattandosi alle esigenze dei singoli studenti, qualcosa che gli insegnanti umani faticano a ottenere in modo coerente.
Questo cambiamento è significativo perché mette in discussione il modello tradizionale di istruzione, in cui le risorse e l’attenzione sono distribuite in modo non uniforme. L’intelligenza artificiale ha il potenziale per livellare il campo di gioco, anche se Clegg riconosce i rischi di un eccessivo affidamento alla tecnologia.
Navigare tra i rischi: dipendenza emotiva e limiti di età
Clegg riconosce i pericoli della dipendenza emotiva dall’intelligenza artificiale, in particolare per i bambini. Sostiene l’adozione di misure precauzionali, come l’intelligenza artificiale basata sull’età per prevenire interazioni inappropriate. Il confronto con il divieto australiano dei minori sui social media evidenzia le sfide legate all’applicazione della normativa, ma Clegg suggerisce i controlli sugli app store come potenziale soluzione.
Questo dibattito è cruciale perché l’accesso incontrollato all’intelligenza artificiale emotivamente manipolativa potrebbe avere effetti psicologici duraturi, soprattutto sui giovani. La regolamentazione deve trovare un equilibrio tra innovazione e protezione.
Il paradosso del potere: concentrazione contro empowerment
Clegg è schietto riguardo alla crescente concentrazione del potere dell’intelligenza artificiale nelle mani di alcuni giganti della tecnologia, in particolare nella Silicon Valley e in Cina. L’elevato costo delle infrastrutture LLM crea una barriera all’ingresso, esacerbando questo squilibrio. Sostiene che ciò pone un dilemma fondamentale: mentre l’intelligenza artificiale dà potere agli individui, amplifica anche l’influenza di pochi eletti.
Questo squilibrio è un problema sistemico. Gli effetti di rete dell’intelligenza artificiale favoriscono i grandi operatori, rendendo difficile la concorrenza e sollevando preoccupazioni sui monopoli.
Regolazione e allineamento politico
Clegg critica sia le pesanti normative dell’UE sull’intelligenza artificiale (definendole “autolesionismo”) sia il recente allineamento politico dell’industria tecnologica statunitense. Sostiene che l’approccio dell’UE è prematuro e soffoca l’innovazione, mentre lo spostamento della Silicon Valley verso la pacificazione politica è una tendenza pericolosa.
Sottolinea inoltre l’ipocrisia dei sostenitori della libertà di espressione statunitense che criticano la regolamentazione europea trascurando le azioni aggressive del proprio governo contro le società di intelligenza artificiale come Anthropic. Ciò sottolinea la necessità di un approccio più sfumato e coerente alla governance dell’IA.
Il caso dell’Open Source
Clegg sostiene l’intelligenza artificiale open source come un modo per democratizzare l’accesso e prevenire il controllo oligopolistico. Ironicamente, egli osserva che la Cina è all’avanguardia in questo senso, intenzionalmente o meno.
Ciò è importante perché i modelli open source possono favorire l’innovazione, la trasparenza e una più ampia partecipazione allo sviluppo dell’intelligenza artificiale, contrastando il predominio dei sistemi proprietari.
Il paradosso del potere è chiaro: l’intelligenza artificiale offre empowerment individuale e allo stesso tempo consolida il potere nelle mani di pochi. Affrontare questo squilibrio richiede una regolamentazione ponderata, un impegno per lo sviluppo open source e il rifiuto sia delle esagerazioni che delle paure.
Le intuizioni di Clegg offrono una prospettiva fondata sulla traiettoria dell’intelligenza artificiale, sottolineando le applicazioni pratiche, riconoscendo i rischi e sollecitando un approccio equilibrato alla regolamentazione.






























