AI deve essere strumento in mano all'intelligenza umana: la nota del Vaticano
I punti salienti del testo Antiqua et Nova.
L'AI non è una forma artificiale dell'intelligenza, ma uno dei suoi prodotti: così la nota del Vaticano Antiqua et Nova si esprime sul rapporto tra le due forme di intelligenza - quella artificiale, appunto, e quella umana - evidenziando sfide, opportunità e rischi degli ultimi sviluppi della tecnologia nel campi di educazione, economia, sanità, relazioni internazionali ed interpersonali e scenari di guerra.
Antiqua et Nova si riferisce alla sapienza - antica e nuova - identificando pericoli e vantaggi di questo nuovo strumento avanzato. C'è preoccupazione, si legge nel testo, "data da tutte le innovazioni i cui effetti sono ancora imprevedibili, anche per ciò che al momento appare innocuo come la generazione di testi e immagini che rischiano di avere un influsso sulla crescente crisi di verità".
I RISCHI DELL'AI
- l'AI non è una persona: umana è solo l'intelligenza che si esercita nelle relazioni, "plasmata da una miriade di esperienze vissute nella corporeità". L'intelligenza artificiale non ha queste caratteristiche, in quanto basata su una "visione funzionalista" che valuta le persone unicamente per i risultati conseguiti senza considerare aspetti fondamentali come la dignità umana. Da qui l'errore di base: l'AI non è una forma artificiale dell'intelligenza, è solo uno dei suoi prodotti.
- preoccupazioni etiche: l'AI può portare a "importanti innovazioni", ma anche a discriminazioni, povertà, disuguaglianze sociali e divario digitale. In più c'è il rischio che l'AI resti concentrata nelle mani di pochi, con conseguente pericolo di manipolazione per guadagni personali.
- guerra: potrebbe essere utilizzata come strumento di pace, invece l'AI viene spesso sfruttata per colpire obiettivi senza l'intervento umano. In questo modo la guerra acquisisce "un potere distruttivo incontrollabile, che colpisce molti civili innocenti, senza risparmiare nemmeno i bambini".
- relazioni: l'AI è un'arma a doppio taglio, in quanto può "favorire le connessioni" e portare a "un dannoso isolamento". I chatbot rischiano di ridurre le relazioni umane a rapporti meramente utilitaristici.
- economia: anche in questo caso gli aspetti positivi e quelli negativi rischiano di confondersi, poiché l'AI può, sì, aumentare competenze e produttività, ma dequalifica i lavoratori relegandoli a funzioni rigide e ripetitive.
- sanità: il timore è che l'AI vada a sostituire la relazione medico-paziente, peggiorando "quella solitudine che frequentemente accompagna la malattia". Altro pericolo riguarda il fatto che con l'AI la medicina avanzata diventi esclusiva per i più ricchi, "mentre altri faticano ad avere accesso persino ai servizi di base".
- educazione: l'AI può migliorare l'accesso all'istruzione, ma ad oggi "si limita a fornire risposte invece di spingere gli studenti a reperirle da sé, oppure a scrivere essi stessi dei testi". Con i conseguenti rischi di acquisizione di informazioni distorte, contenuti inesatti e fake news.
- fake news, deepfake: il pericolo è quello dell'alimentazione di allucinazioni da AI con contenuti falsi che sembrano veri. E ciò è ancor più grave quando questo viene fatto di proposito tramite la diffusione di deepfake.
- privacy: alcuni tipi di dati, spiega Antiqua et Nova, "possono arrivare a toccare l'intimità della persona, forse persino la sua coscienza". Il pericolo è quello di creare "una specie di spettacolo che può essere spiato, vigilato".
- ambiente: l'AI ha grandi potenzialità per aiutarci a migliorare il rapporto con l'ecosistema e per difenderci meglio da eventi climatici estremi o trovare soluzioni per l'agricoltura sostenibile. Tuttavia i data center richiedono ingenti quantità di energia e di acqua e generano inquinanti dannosi per l'atmosfera.
La nota si conclude con una raccomandazione:
CLICCA QUI PER CONTINUARE A LEGGERE
Qual è la vostra reazione?