Il contributo di Giancarlo Polenghi per la rubrica “Alesia ed i suoi compagni di viaggio”
In questo articolo per la rubrica Alesia, prendo spunto da un seminario di studio della Fondazione Maffi, che si è svolto nel convento di San Cerbone (Lucca), dal 4 al 5 maggio 2023. Il tema è attuale perché un po’ tutti stanno parlando di algoritmi, di intelligenza artificiale, e delle conseguenze sulle nostre vite. La Maffi, espressione della Chiesa pisana, si occupa di cura di persone fragili (circa 500 assistiti – chiamati sorelle e fratelli preziosi – in otto strutture sulla costa tirrenica tra Toscana e Liguria) e si è posta il problema di come la tecnologia potrebbe cambiare il suo modo di operare a favore degli anziani, delle persone con malattia di Alzheimer, dei disabili, delle persone con malattie psichiatriche o delle persone in stato vegetativo. Lo svolgimento del tema però, forse proprio grazie al focus particolare della relazione di cura, è risultato di grande interesse generale, con spunti preziosi per chiunque.
Abbiamo ascoltato le riflessioni di Andrea Carobene (Chief Technology Officer di BAIA Business Artificial Intelligence Agency e docente all’università Cattolica di Milano) e di Stefano Perfetti (professore di filosofia all’Università di Pisa). A fare da raccordo tra i due esperti alcune domande per il lettore (e nel seminario per il lavoro di gruppo dei convegnisti).
È possibile misurare la qualità della relazione? Gli algoritmi mi potranno conoscere meglio dei miei amici? Potrò mai diventare amico di un computer? È possibile misurare la qualità delle relazioni all’interno di un gruppo?
Sono domande dirette e non banali, perché ci portano immediatamente sul piano antropologico.
L’algoritmo
Siamo in una cultura in cui il paradigma tecnocratico è dominante. Stiamo vivendo un cambiamento d’epoca, di trasformazioni rapide e radicali. È un po’ come all’epoca della rivoluzione industriale in cui tutto è mutato mettendo in discussione pratiche e stili di vita precedenti. L’intelligenza artificiale, che si caratterizza per saper emulare il pensiero umano, per saper apprendere e adattarsi, è pervasiva. Secondo Andrea Carobene (Chief Technology Officer di BAIA Business Artificial Intelligence Agency e docente all’università Cattolica di Milano), siamo di fronte ad una intelligenza collettiva che ci porta in un nuovo mondo. Le conoscenze sono accessibili a tutti, la maggior potenza di calcolo dei computer, la raccolta dei big data, ossia di grandi quantità di informazioni, e la rete, incidono sul nostro modo di prendere decisioni, sul nostro modo di pensare e di agire. Tutto questo desta stupore e porta con sé indubbi vantaggi, a cui non siamo capaci di rinunciare. Carobene richiama Teilhard de Chardin e una visione positiva in cui lo scienziato e teologo francese ipotizzava una progressiva umanizzazione dove la coscienza, lo spirito e la morale hanno sempre più peso. Un nuovo mondo più giusto, bello e buono. Per algoritmo si intende una procedura che può essere processata da un computer. Le istruzioni per l’uso, o le ricette di cucina, sono una tipologia di algoritmo. Funzionano bene in ambienti semplici e formalizzati, ma con la potenza di calcolo possono anche processare enormi quantità di informazione, che un uomo non potrebbe gestire. E qui si inserisce la capacità di previsione: inserendo dati su quanto è avvenuto l’algoritmo può prevedere il futuro, e per non sbagliare – o sbagliare di meno – può allenarsi sui dati del recente passato (ossia quelli che già conosciamo). Ma, e questo è un punto importante, siamo noi ad introdurre i dati e a fare le domande. Ciò riproduce la nostra visione, giusta o sbagliata che sia. In altri termini, sostiene Andrea Carobene, i pregiudizi umani, o i bias, come si dice in ambiente informatico, si riproducono e si diffondono. Allora la capacità di analisi dell’intelligenza artificiale è uno specchio del nostro pensiero, con i suoi pregi e i suoi difetti, ma più rapida e più capace di gestire immense informazioni. La capacità previsionale è buona sulla folla, ma è approssimativa sul singolo (dove la variabili individuali giocano un ruolo grande). I motori di ricerca o la GPT chat (ossia la chat online che è basata sull’intelligenza artificiale e in cui GPT sta per Generative Pretrained Transformer) agiscono sulla base degli input che ricevono dagli utenti online. Se io cerco “i milanesi sono” Google mi propone di completare la frase con, al primo posto, “antipatici”, al secondo, “freddi” al terzo, “tirchi”. Chissà come mai? Si tratta di una definizione oggettiva o soggettiva? Come è stata generata? L’interazione che abbiamo con l’intelligenza artificiale, o anche banalmente con una pagina di Facebook, fa sì che essa “ci conosca” meglio di nostra madre, perché oltre a memorizzare tutte le nostre azioni online (incluso i like o i secondi di tempo che dedichiamo ad un’immagine o ad un articolo) è in grado di compararle con altri milioni di utenti, inserendoci in un gruppo di pari (il cluster). Non solo, i social media, apprendendo i nostri gusti, ci propongono quello che ci piace. Il risultato è che se per qualche motivo pensiamo che la terra sia piatta o che i vaccini siano pericolosi, ci troveremo rapidamente circondati da una folla che conferma le nostre convinzioni. Le echo chamber, sono stanze in cui siamo rassicurati sul nostro punto di vista anche grazie ad altri. Tutto ciò, secondo Carobene, genera rischi e una nuova mediocrità. L’intelligenza artificiale è già nelle nostre vite con l’assistenza vocale (per esempio quella di Alexia di Amazon o di Siri di Apple), nella ricerca online, nei social media, nel riconoscimento facciale, nei servizi di traduzione delle lingue, nell’assistenza sanitaria, nell’assistenza alla guida, nelle previsioni del tempo e nei consigli degli acquisti. Ci sono poi gli Aged based Models, ossia i modelli basati sui comportamenti che permettono di raggruppare le persone sulla base di quello che fanno (per rafforzare i comportamenti) o non fanno (e quindi potenzialmente per proporre nuove esperienze). Le applicazioni spaziano dal marketing alla politica, dalla cura della persona all’intrattenimento.
Il volto umano
Il filosofo Stefano Perfetti (Università di Pisa) si è chiesto come dovremo accompagnare l’imminenza di nuove tecniche di monitoraggio e interazione con i pazienti fragili. Negli Stati Uniti, negli ultimi anni, sono sorte numerose aziende che offrono dispositivi e sistemi guidati da modelli di intelligenza artificiale, per monitorare gli anziani, in particolare quelli con declino cognitivo. Ci sono anche avatar, figure realistiche umanoidi, col compito di far compagnia alle persone sole.
Si vedono subito i vantaggi per l’efficacia del monitoraggio, anche se i sistemi attuali sono lontani dall’essere perfetti. Desta invece forte preoccupazione la sostituzione della relazione umana con un sistema che è puramente di controllo. Insomma: paradiso della tecnologia e deserto degli affetti?
Richiamando la prima parte del titolo (il volto umano), Perfetti si chiede come guadare questo volto e individua subito due modalità, la prima, definita sguardo chiuso, che è oggettivante, concettuale e mira alla comprensione; la seconda, lo sguardo aperto, rimanda al mistero della persona, all’infinito, all’amore, alla relazione come origine. Allora al centro ci dovrà essere una persona che è mistero infinito e che eccede i miliardi di informazioni che qualunque intelligenza artificiale possa raccogliere. E lo sguardo dove guarda? Guarda al volto dell’altro. Il volto sono quei lineamenti che vanno oltre i lineamenti. Il filosofo Emmanuel Lévinas ha parlato dell’esperienza di infinito nel volto dell’altro, della persona, che ci apre a Dio. Il volto dell’altro, la persona, è tale anche quado le parole comunicano meno. L’operatore sanitario a conoscenze preziose e se accogliere in tutto il corpo dell’assistito i messaggi di una personalità unica e irriducibile. Il volto, cioè il mistero della persona, si coglie anche dal micromovimento di un dito (la microprassia), da una piega della bocca, da frasi spezzate (in un disco rotto che testimonia una ferita della psiche). Perfetti cita anche Martin Buber il filosofo del principio dialogico. Anche l’io non esiste isolatamente ma sorge dalla relazione. E la relazione è differente quando è tra le persone o tra le cose. La relazione io-tu (che non può esserci con il computer) è quella che dà significato alla vita, che riempie di senso. Quella con le cose, la relazione io-esso, è importante, permette di esercitare il potere, è costruttiva, precisa, scientifica e tecnologica. Il rispetto è proprio il riconoscimento bisogno dell’alter-ego, che è ego (come me) ma è anche alter. Così tra i due termini, nella relazione, sorge un arcobaleno, un fascio di luci e di alleanza. Certo la relazione può anche essere “malata” e allora ci si ritrae da essa evitando il confronto e rifugiandosi nelle echo chamber in cui tutti la pesano nello stesso medo, e in cui si perde l’alterità, così ci si immunizza dalla relazione e si perde in umanità. Perfetti mette in guardia dal trattare le cose come persone, investendo emotivamente gli oggetti (come siamo tentati spesso a fare con i dispositivi tecnologici). Così si diventa feticisti, governati da un pensiero magico, regressivi. Allora l’algoritmo, che ha aspetti positivi, può diventare una perversione. Quando arriveranno le nuove tecnologie e saranno più pienamente implementate anche nella cura dei soggetti fragili, dovremmo addestrarle. E allora, conclude Perfetti, la nostra ricchezza umana preziosa sarà anche il patrimonio di osservazioni sulla complessità umana di cui sono depositari le operatrici e gli operatori della Casa Cardinale Maffi.
Sulla scorta degli stimoli dei due relatori, possiamo concludere così. Oggi siamo osservatori delle nostre patologie, adoratori di telefonini, rischiamo di non vedere più il volto di chi ci sta accanto. Come quei ragazzi che di fronte al capolavoro del pittore nel museo, chattano al cellulare. Una possibile sintesi va trovata. Certo è che dobbiamo accettare la sfida epocale di usare l’algoritmo, di governarlo, con spirito critico e realismo, e anche entusiasmo, ma senza perdere di vista il volto umano. Ben vengano allora le ricerche e le misurazioni che ci aiutino (pur senza mai esaurire il tema qualitativo) a capire meglio la relazione con le persone (la Maffi sta promuovendo una ricerca sulla qualità della relazione tra assistenti e assistiti per cogliere indicatori e misurarli). Il volto ci rimanda alla carne (per chi è cristiano all’incarnazione), ai cinque sensi del qui e ora, e alla coscienza, quella della canna mossa dal vento di Pascal. In fondo si tratta di saper distinguere bene tra mappa e territorio. La mappa è uno schema, una semplificazione, utile ma approssimativa, il territorio è la realtà che eccede, che va oltre, che è via, verità e vita.
Ginacarlo Polenghi

*Giancarlo Polenghi, milanese, vive e lavora a Firenze. Laureato in Lettere, si è occupato di comunicazione come giornalista, per la carta stampata e la televisione. Ha co-fondato un’agenzia di pubblicità lavorando per aziende quali Barilla, Nestlé, Volvo, Bayer. Ha insegnato a Manila nella University of Asia and the Pacific e negli Stati Uniti, nella Western Kentucky University. Ha tenuto il corso di Marketing dei Servizi presso la Pontificia Università della Santa Croce. E’ co-fondatore di Sacred Art School – Firenze (www.sacredartschoolfirenze.com ). Ama la fotografia e il teatro.