Evviva l’intelligenza artificiale, vade retro intelligenza artificiale. Non siamo di fronte a un dissociato Giano bifronte della tecnologia ma a un dilemma che sta appiattendo il dibattito sull’avanzata delle innovazioni tecnologiche. L’intelligenza artificiale si trova tra l’incudine delle opportunità e il martello dei rischi.
Negli ultimi anni ci si è esaltati – complice per buona parte ChatGpt – su una realtà “vecchia” quasi oltre mezzo secolo. Per il test di Turing bisogna fare, ad esempio, un salto indietro nel tempo: era il 1950 quando Alan Turing nell’articolo Computing machinery and intelligence sulla rivista Mind definì un criterio per determinare se una macchina era in grado di esibire un comportamento intelligente.
L’intelligenza artificiale è stata ed è un’opportunità. Oggi entusiasmanti percorsi ci portano alle “magnifiche sorti e progressive” di una rinnovata comunità scientifica unita. Eppure l’eco sorda di scricchiolii comincia a sentirsi.
Le preoccupazioni dei colossi del web
Ultimo capitolo sono le preoccupazioni dei colossi del web. Sì, proprio loro. Ne parla Brody Ford su Bloomberg. A farsi sentire, non troppo sommessamente, sono le stesse aziende tecnologiche che avvertono che l’intelligenza artificiale potrebbe non funzionare.
I dirigenti hanno trascorso l’ultimo anno e mezzo a predicare su come le loro aziende riusciranno a cavalcare con successo l’onda dell’intelligenza artificiale. Ma queste stesse aziende hanno lanciato silenziosamente avvertimenti sui modi in cui l’intelligenza artificiale potrebbe distruggere le loro attività.
Meta Platforms Inc. ha affermato che la sua intelligenza artificiale potrebbe essere utilizzata per creare disinformazione durante le elezioni, provocando una reazione negativa. Microsoft Corp. ha affermato che potrebbe dover affrontare rivendicazioni di copyright relative alla formazione e all’output dell’intelligenza artificiale. Oracle Corp. ha avvertito che i suoi prodotti AI potrebbero semplicemente non funzionare bene come quelli della concorrenza.
Brody Ford su Bloomberg
Cosa sta accadendo?
Nulla di anomalo o preoccupante. Sempre dall’articolo di Ford apprendiamo quanto detto da Adam Pritchard, professore di diritto societario e dei titoli presso la Law School dell’Università del Michigan: “C’è molta attenzione alla divulgazione dei rischi”. Se un’azienda non ha rivelato il rischio che corrono le sue controparti, può diventare un bersaglio per azioni legali, ha affermato.
Ma è tutto oro quello che luccica?
Dobbiamo aprire gli occhi. Spalancarli se è il caso. Fra qualche tempo faremo i conti con una intelligenza artificiale che scardinerà tanti sistemi che garantiscono oggi equilibrio e democrazia. Alla fine, come ogni strumento può rispondere a funzioni diverse. L’abusato esempio del coltello ci porta comunque alla riflessione sul fatto che puoi utilizzarlo a fin di bene: cibarti, liberarti da una corda. Ma anche a fin di male: uccidere qualcuno.
Possiamo stare tranquilli?
La risposta è no. E i motivi si possono ricondurre a una sola parola: sicurezza. Sicurezza delle reti, sicurezza dei dati, sicurezza della informazioni. Declinato agli effetti: attacchi informatici, violazione della privacy, fake news. La stessa AI che oggi viene usata per innalzare i livelli di sicurezza delle reti, è anche nelle mani dei cracker, i pirati informatici, che possono così sviluppare attacchi più sofisticati e automatizzati. Pensiamo ai malware avanzati e agli attacchi di phishing personalizzati. Ma l’intelligenza artificiale può anche essere a servizio dei malintenzionati per identificare rapidamente le vulnerabilità nei sistemi. Per non parlare della progettazione degli stessi attacchi per eludere i sistemi di rilevamento delle minacce basati su AI, rendendo le misure di sicurezza esistenti meno efficaci.
C’è poi l’ambito della Privacy. L’AI può raccogliere, analizzare e utilizzare grandi quantità di dati personali senza il consenso degli individui. Gli algoritmi sulla base delle info raccolte possono creare profili dettagliati degli individui basati sui loro dati personali, che possono essere utilizzati per la discriminazione o la manipolazione. Per arrivare a quella dimensione, oggi relegata ai romanzi distopici, della sorveglianza di massa, monitorando e analizzando le attività delle persone in modo invasivo.
Ultimo aspetto riguarda la creazione di articoli, di immagini e di video falsi (deepfake) che permettono in modo rapido e credibile di diffondere disinformazione. Sempre attraverso l’uso di algoritmi è possibile amplificare contenuti falsi o di parte, influenzando l’opinione pubblica e i processi elettorali così come creare “bolle informative” che isolano gli utenti da punti di vista diversi, rendendo difficile distinguere tra informazioni veritiere e fake news.
L’ultimo baluardo
Il giorno in cui gli algoritmi saranno messi in circuiti decisionali su ambiti delicati come l’occupazione, l’istruzione e la giustizia, chi ci assicurerà sulla correttezza delle informazioni caricate? Gli algoritmi di intelligenza artificiale possono, infatti, incorporare bias (errori) nei dati di addestramento, portando così a decisioni discriminatorie, o anche difficili da spiegare. Vai quindi a contestare tutto questo una volta che il processo è avviato. L’eccessiva dipendenza dall’AI può ridurre l’importanza del giudizio umano e veder trattare le persone come numeri o statistiche.
Cosa ci riserva il futuro? Siamo già nei termini per dare una risposta, trovare una soluzione, porre dei rimedi.
Immagine realizzata con DALL-E