Come intervenire nel dinamico e accelerato processo tecnologico dell’IA, nei suoi contenuti e nella sua influenza? Le criticità sono diverse, ma anche le potenzialità e possibilità.

L’Istituto superiore di scienze religiose metropolitano ‘don Tonino Bello’ di Lecce (Issrm) ha organizzato, come secondo incontro di percorso comunicativo, ‘Comunicare per la comunità. In dialogo con l’Intelligenza Artificiale’, a cura della prof. Chiara Maggiore docente di teoria e tecnica della comunicazione presso lo stesso istituto, per una comunicazione “che intervenga ad aggregare invece che disgregare, che esprima e generi” una postura capace di restituire la storia senza ridurla a categorie sminuenti. Tutto ruota sulla responsabilità: “come mettere la tecnica al servizio della comunità”, chiarito nel suo testo “Comunicare (per) la comunità. Percorsi di coesione e narrazione collettiva”.
L’obiettivo, per il direttore Issrm don Antonio Bergamo, è una visione “della teologia come antropologia delle relazioni per esercitare un pensiero critico”.
Alla presenza del prof. Gianpasquale Preite (direttore Crev - Università del Salento) e del dott. Giuseppe Vinci (presidente dell’Ordine psicologhe e psicologi Puglia), si sono succedute diverse prospettive di approccio alla tematica dell’IA.
Il prof. Paolo Baldi (docente di epistemologia e logica dell’informazione all’Università del Salento), sul tema “Ragionare con l’intelligenza artificiale: logiche, limiti e responsabilità del pensiero automatizzato”, ha evidenziato l’intreccio tra metodi formali e computazionali, utilizzati dai ricercatori in IA, e interrogativi filosofici.
Si è passati dall’approccio simbolico all’apprendimento dei dati.
Enorme potenza di calcolo e raccolta dati dai social vengono messi insieme da algoritmi per risolvere problemi usuali e fare predizioni. Il rischio di una raccolta opaca e inaffidabile, per numeri, scelte, visioni contingenti, variabili imprevedibili, può condurre a discriminazioni e scelte sbagliate. Che si tratti del modello causale o di equità e responsabilità, “non è detto che una buona predizione sia una buona decisione”; anche perché “non esiste una nozione di equità condivisa”.
Con il prof. Alessandro Sbarro, docente di diritto penale all’Università del Salento, si è approfondito il tema “Diritto e intelligenza artificiale: tutela della persona e della comunità”. L’uso dell’IA spesso aggira norme di diritto penale e internazionale: chi risponde di determinati errori? In caso di danni, chi ha dato l’input? Chi ha impostato il sistema? Escludendo il dolo, comunque si aprono sfide e problemi anche considerando la percentuale di errore prevista. L’IA, utilizzata nel campo medico di diagnosi o pre-diagnosi, può essere molto utile, ma soprattutto un impegno attivo può fare la differenza, innanzitutto nell’ottenere un allineamento del sistema sui valori costituzionali in relazione ai diritti umani. L’esempio può essere quello della Constitutional AI e dell’AI alignment già sperimentate nel contesto nordamericano.
Infine, il prof. Gian Piero Turchi, docente di psicologia all’Università di Padova, tra i primi in Italia ad avviare nel 2002 uno studio sulla scienza dialogica come configurazioni di senso nelle interazioni fra comunità tra cui le chatbot che si basano sull’IA, individua nel cambiamento attuale un mutamento antropologico: “si è passati dall’homo sapiens all’homo dialogicus”. L’evoluzione legata alla tecnologia ha modificato l’esponente delle relazioni con un aumento della base che, da lineare, diventa multidimensionale, raggiungendo una ‘nebulosa’ difficilmente gestibile. Non si può più parlare di una intelligenza se l’IA si fonda solo su una statistica computazionale soggetta ad errori proporzionali alla quantità di dati processati, ma di ‘esperto digitale’ che mette solo a disposizione dati.
La piattaforma non genera domande di senso, come per noi umani, ma è solo programmata per mantenere le relazioni aperte, con la conseguenza di doverla sempre interpellare.
Si è giunti così ad uno scarto paradigmatico: da cogito ergo sum a digitur ergo cogito. Si svela quindi la differenza tra lingua, utilizzata dall’IA come un dato, e linguaggio, frutto di interazioni biologiche di senso.
Concludendo, le diverse chiavi di lettura proposte hanno l’intento di renderci protagonisti nel governare questa svolta rivoluzionaria nelle comunicazioni e nelle relazioni.
Photogallery di Arturo Caprioli.

