Medici, bioeticisti e teologi riuniti per riflettere sul ruolo dell’AI nella sanità. Mons. Pegoraro: “Opportunità straordinarie, ma anche rischi da non ignorare”
Un convegno in Vaticano per capire il futuro della medicina
La Pontificia Accademia per la Vita e la Federazione Internazionale dei Medici Cattolici hanno promosso in Vaticano un convegno di due giorni dedicato all’intelligenza artificiale e alle sue implicazioni in campo medico. Un tema centrale, spiegano gli organizzatori, in un’epoca in cui “le macchine non solo analizzano dati, ma interagiscono e prendono decisioni”, ponendo questioni nuove sul piano etico, giuridico e umano.
Si tratta di un ulteriore passo nel percorso avviato con la Rome Call for AI Ethics, documento firmato non solo da grandi aziende tecnologiche e farmaceutiche, ma anche da rappresentanti delle principali religioni, per promuovere un uso etico dell’intelligenza artificiale.
Pegoraro: “Tra diagnosi, prognosi e rischi da valutare”
Il presidente della Pontificia Accademia per la Vita, monsignor Renzo Pegoraro, ha sottolineato che l’obiettivo dell’incontro è “entrare nello specifico di quella che è la medicina, del rapporto medico-paziente, di tutto quello che l’intelligenza artificiale può fare come diagnosi, come prognosi, come impatto sul territorio, ma anche con la consapevolezza dei rischi e dei problemi che si creano”.
Oggi, infatti, le macchine non solo aiutano i medici nelle diagnosi, ma vengono sempre più coinvolte in decisioni critiche, come la gestione di pazienti in fine vita. “La gestione dei dati è una cosa — osservano i relatori — ma accettare che siano le macchine a prendere decisioni, senza mediazione umana, è un’altra”.
Poullet: “Serve un diritto alla dignità e alla spiegazione umana”
Il professor Yves Poullet, dell’Università di Namur, ha richiamato l’attenzione sulla necessità di garantire un “diritto alla dignità” in un contesto in cui l’intelligenza artificiale “è in grado di manipolare le persone e di modificare la mente”.
“Il diritto deve riflettere su questo, proporre nuove regole”, ha affermato Poullet, segnalando anche la crescente “privatizzazione dell’offerta dei servizi medici” e l’ingresso delle big tech nel mercato sanitario.
Secondo il docente belga, il primo problema è quello dell’autonomia delle persone: “Ci troviamo di fronte a un sistema opaco. Le persone danno dati, ma non sappiamo esattamente cosa succederà con quei dati. C’è un diritto di essere informati”.
Poullet ha inoltre insistito sul “diritto ad avere una spiegazione umana per una decisione presa dall’intelligenza artificiale”, ribadendo che ogni paziente deve poter “rifiutare di essere sottomesso a un sistema di IA” e scegliere “tra l’essere esaminato da un robot o da una persona”.
“Il diritto all’integrità fisica, a partire dalla nostra mente, è la cosa più importante”, ha aggiunto.
“Non perdere di vista l’identità umana”
Anche Chiara Ferro, ricercatrice dell’Ospedale Pediatrico Bambino Gesù, ha messo in guardia contro il rischio di smarrire l’umanità nella relazione di cura.
“La cosa importante è di non perdere di vista l’identità umana mentre si attiva l’ultima tecnologia”, ha spiegato.
Secondo la studiosa, l’intelligenza artificiale offre risposte “credibili, professionali e standard”, ma con esse “si perde anche l’imperfezione umana, la differenza di opinione, quella tipicità propria dell’essere umano”.
Il medico, sottolinea Ferro, deve restare “consapevole del processo”, ricordando che la tecnologia è sempre stata presente in medicina, ma “con l’intelligenza artificiale generativa si è superato un limite: non è più solo uno strumento, ma un interlocutore”.
Santos Pereira: “Gli algoritmi non sostituiscono, ma cambiano la medicina”
Il professor João Santos Pereira, dell’Università Cattolica di Lisbona, ha offerto uno sguardo comparato sulle diverse applicazioni dell’intelligenza artificiale nel mondo: in Italia per il supporto alle decisioni cliniche, in India per ampliare l’accesso alle cure, in Nord America per la prevenzione dei disturbi cardiovascolari.
“Gli algoritmi possono mettere in luce problemi, trovare condizioni rare e migliorare la diagnosi senza ridurne la qualità”, ha osservato. Tuttavia, “la validazione umana sarà sempre richiesta per le decisioni più importanti”.
Santos ha avvertito che “il tipo di dati usati per allenare gli algoritmi dell’intelligenza artificiale determinerà il tipo di risposte”, e ha richiamato l’attenzione sui “problemi di scatola nera”, quando le decisioni dell’IA non sono spiegabili.
“Serve una chiara regolazione e governance — ha concluso —, perché la diagnostica può essere sempre più automatizzata, ma i confini etici devono restare solidi”.
Lysaught: “Una bioetica cattolica più proattiva”
La teologa e bioeticista Therese Lysaught, membro della Pontificia Accademia per la Vita, ha riconosciuto che il dibattito è appena iniziato:
“La bioetica cattolica tende ad essere reazionaria, cioè a reagire quando qualcosa avviene. Ma in questo caso abbiamo reagito presto, in modo proattivo, per delineare una conversazione interdisciplinare e dialogica”.
Lysaught ha anche messo in luce una “tensione crescente nel voler umanizzare la tecnologia”:
“Attribuiamo alla macchina caratteristiche umane, mentre descriviamo noi stessi in termini meccanici. Ma l’intelligenza artificiale non è davvero intelligente, né ha memoria come la nostra”.
Un nuovo umanesimo tecnologico
Dal convegno vaticano emerge un messaggio chiaro: l’intelligenza artificiale non è il futuro, ma il presente della medicina. Tuttavia, la velocità del progresso e la concentrazione del potere tecnologico impongono una riflessione profonda sui limiti e sulla dignità della persona.
Come ha ricordato uno dei partecipanti, “non si tratta di fermare la tecnologia, ma di ricordare che il suo fine resta sempre l’uomo”.
Articolo precedentemente pubblicato da acistampa, riadattato dalla redazione di ewtn.it per la sua pubblicazione.





