Visite: 366

Inutile nasconderlo: l’intelligenza artificiale sta ormai prendendo sempre più spazio nella vita quotidiana. Di conseguenza anche in quella di medici e odontoiatri che devono conoscerla per saperla applicare al meglio, migliorando l’efficienza dei servizi sanitari, ma anche l’organizzazione delle strutture ospedaliere e sul territorio, e per ridurre al massimo i rischi e le insidie, che pur ci sono. Partendo, però, da un principio: la mente umana comprende e interpreta, mentre l’IA, pur potendo imparare, semplicemente calcola. L’approccio più funzionale, dunque, sarà quello integrato: la tecnologia amplifica le capacità umane, ma non potrà mai sostituire il professionista.
Questo il messaggio lanciato lo scorso 18 aprile al Centro Cardinal Urbani di Zelarino durante il convegno Intelligenza artificiale in sanità. Storia, aberrazioni, indicazioni, organizzato per l’OMCeO lagunare dai due presidenti Giovanni Leoni e Giuliano Nicolin. «Il terzo negli ultimi 4 anni – ha sottolineato proprio il dottor Leoni – dedicato a questo tema. Una rivoluzione che riguarda la capacità di calcolo dei processori e la potenza dei software, ma anche uno strumento che va maneggiato con cura».
Due, invece, le riflessioni proposte dalla guida della CAO veneziana Giuliano Nicolin: «La prima: quando leggo qualcosa in rete, mi chiedo sempre se sia vera o meno. Perché ormai faccio fatica a distinguere. E me lo chiedo perché penso che in campo medico il cittadino abbia meno armi per capire e per difendersi. La seconda: la preoccupazione dei colleghi che l’IA possa sostituirci. Può fare molto al posto nostro e sicuramente è un grosso aiuto, ma credo che gli interventi di oggi siano necessari perché quando si parla di intelligenza artificiale c’è poca vera conoscenza».

Guarda qui i volti dei protagonisti
Guarda qui le slide di alcuni dei relatori

A portare i saluti dell’amministrazione comunale l’assessore alla Programmazione sanitaria Simone Venturini, ormai a fine mandato, che ha sottolineato come, proprio a causa dell’intelligenza artificiale, «il mondo nei prossimi 5 anni accelererà tantissimo e cambierà anche la vostra professione, come tante altre. Il vero tema, allora, sarà come bilanciare tutto e come far sì che la macchina sia al servizio e non soverchi la decisione umana. L’uomo ha l’aspetto etico, la tecnologia no: probabilmente le macchine saranno molto più veloci di noi a far tutto, tranne che a pensare con coscienza».
Attenzione al convegno è arrivata anche dal direttore generale dell’Ulss 3 Serenissima Massimo Zuin che, pur non potendo essere presente, ha inviato una lettera di saluto. «Sono potenzialità enormi – ha scritto – quelle dell’intelligenza artificiale, che ci danno l'impressione di essere illimitate e proprio per questo ci spaventano. L’IA è quasi un moderno genio della lampada che ci permette di esaudire i nostri desideri. Ma c’è una parola che va sempre ribadita e mai dimenticata: persona. C’è infatti una persona che ci chiede aiuto, che soffre, che è fragile e, di fronte a lei, c’è una persona che cura. Ogni analisi sull’uso dell’IA, allora, va fatta senza mai dimenticare la centralità della persona perché tutto, anche l’intelligenza artificiale, sia al suo servizio».
Sbarcati in laguna per l’occasione anche Roberto Monaco e Pierluigi Vecchio, segretario e direttore generale della FNOMCeO, che hanno assicurato come la Federazione nazionale stia lavorando sulla formazione proprio nel campo dell’intelligenza artificiale e che hanno poi illustrato ai partecipanti le novità riguardanti il sistema di aggiornamento professionale e la nuova organizzazione dei 106 Ordini territoriali per permettere in piena sicurezza lo scambio dei dati con le amministrazioni pubbliche.

IA: il contesto di riferimento tra storia e possibili insidie
Nella prima sessione del convegno, moderata dal vicepresidente dell’Ordine Cristiano Samueli e dal medico legale e consigliera Cristina Mazzarolo, a tracciare il contesto di riferimento, esplorando le origini storiche dell’intelligenza artificiale, dai concetti filosofici agli algoritmi matematici, è stato Sergio Barbieri, direttore del Dipartimento di Neuroscienze e Salute mentale dell’Ospedale Maggiore Policlinico di Milano, che si è concentrato poi anche sulle prospettive future, con un focus particolare sul transumanesimo e sull’impatto sulla medicina.
Cuore del problema: l’intelligenza artificiale è davvero tale? «Intelligenza e coscienza – ha sottolineato il relatore – in realtà non si sa ancora che cosa siano. Quindi intelligenza artificiale è un misnomer, un nome sbagliato. Sarebbe meglio parlare di artificial cleverness, cioè bravura, capacità di manipolare i dati in maniera costruttiva. Ma non è un’intelligenza».
Piuttosto, citando Winston Churchill «è un rebus avvolto nel mistero dentro un enigma». Il professor Barbieri ha così ripercorso la storia dell’IA partendo da Alan Turing, che ne è considerato uno dei padri, e approdando a Federico Faggin, fisico italiano, inventore del microchip, del touchscreen e del touchpad e ai super computer potentissimi capaci di processare quantità immense di dati.
L’esperto ha richiamato poi il mito della nave di Teseo – un paradosso che mette in discussione il concetto di identità e il suo durare nel tempo – per spiegare la possibilità di creare un cervello artificiale. La nave di Teseo non è più la stessa se cambiano il legno, le vele, l’albero maestro, eppure la sua struttura e come la si governa sono rimaste identiche. «Se io fossi in grado – ha aggiunto il professore – di sostituire ogni neurone fatto di carbonio nel nostro cervello con uno fatto di silicio e collegare insieme tutti questi miliardi di neuroni, in linea puramente teorica, potrei ottenere un cervello che non è più umano, un cervello artificiale».
Ma perché l’intelligenza artificiale ancora non è intelligente? Da un lato perché non tutta l’attività può essere formalizzata matematicamente sotto l’aspetto di regole o leggi predittive, dall’altro perché il computer, pur manipolando i simboli in modo corretto, in realtà non ne comprende il significato. «I computer – ha scandito – non sanno di pensare. Non hanno autoreferenzialità, non sono influenzati dall’ambiente, non sanno fare scelte etiche». Limiti che potrebbero, forse, essere risolti con l’IA quantistica, ancora però molto difficile da sviluppare.
Tra i pericoli maggiori che corre il genere umano, «l’abituarsi supinamente a vicariare tutte le funzioni all’IA. Questo lo stiamo già facendo, per esempio, con i nostri telefonini. Quando non ce l’avevo, mi ricordavo 50 numeri di telefono in memoria. Adesso solo due o tre. Allora se svuoti parzialmente le capacità umane, che senso ha impegnarsi, studiare, costruire una conoscenza se ogni volta che c’è un problema, chiedi all’IA e lei tra virgolette te lo risolve?».
Dal professor Barbieri anche un approfondimento sul transumanesimo, concetto introdotto da Julian Huxley, che ipotizza la rivoluzione della scienza esatta: cambiare l’attuale carattere della scienza umana per condurre verso nuove forme dell’evoluzione, prolungare la vita, sviluppare le capacità umane.
Un movimento che da un lato mira a salvare corpo e mente attraverso l’ingegneria genetica, la diagnosi preimpianto, la nanotecnologia molecolare, per prolungare la vita umana fino a 150 anni attivi, e dall’altro si concentra sulla mente per ottenere l’immortalità: si diventa eterni perché tutto il contenuto della mente finisce dentro una macchina.
Ultimo passaggio, infine, per sottolineare l’impatto dell’IA sulla professione medica «dove il rapporto medico-paziente – ha concluso il professor Barbieri – diventa un rapporto a tre perché si aggiunge la macchina. L’IA è un “acceleratore cognitivo” che richiede al medico una solida conoscenza di base per formulare domande pertinenti e criticare le risposte. Ci sarà una differenza enorme tra chi la sa usare e chi no. Da un lato permette la medicina personalizzata, migliora la ricerca, la diagnostica e favorisce la scoperta di nuovi farmaci, dall’altro solleva questioni etiche e deontologiche».

Al risk manager Flaviano Antenucci, invece, il compito di definire le possibili insidie legate all’introduzione dell’IA in ambito sanitario, con particolare attenzione alle implicazioni giuridiche e alle responsabilità. A partire dall’illusione della conoscenza e dalla sindrome di chi crede di sapere tutto pur non sapendo nulla, ostacoli alla comprensione, anche in ambito medico. «Un problema giuridico – ha sottolineato – che rende il consenso informato inefficace: il 40% delle persone non è in grado di comprendere un testo semplice. Pazienti ai quali è inutile spiegare le cose perché sono esperti di tutto: arrivano con la diagnosi di Google, capiscono al volo un intervento di alta neurochirurgia, sanno come organizzare la nazionale di calcio, conoscono alla perfezione la geopolitica… Sanno tutto».
Il rischio in sanità non deriva tanto dall’introduzione di tecnologie sofisticate, quanto dal fatto che il paziente creda a promesse di infallibilità, come la pubblicità di una risonanza magnetica “ad alto campo con intelligenza artificiale”, che instilla nella persona la convinzione che non ci possa essere errore. «Questa comunicazione – ha aggiunto il manager – è in realtà una promessa contrattuale di infallibilità. Se un servizio viene dichiarato infallibile, si crea un “affidamento” nel paziente e se l’infallibilità non viene raggiunta, si deve risarcire il danno».
La gestione del rischio sanitario, allora, non è gestione dell’errore clinico, ma della responsabilità civile, che nasce da questi affidamenti. Responsabilità civile che si basa su tre regole:

  1. più sei bravo, più sarò severo con te: le aspettative aumentano con la reputazione del professionista;
  2. più costi, più salgono le aspettative: un prodotto più costoso implica maggiori garanzie contrattuali;
  3. maggiore la platea, maggiore il carico legato alla precauzione: se ci si rivolge a un pubblico ampio, si deve considerare che una parte significativa potrebbe non comprendere appieno le informazioni.

L’interazione tra medicina e IA può, dunque, avvenire in tre modi:

  1. pura tecnologia: l’IA è uno strumento non visibile al paziente. La responsabilità ricade sul produttore;
  2. collaborazione: l’IA affianca il medico ed è visibile al paziente, creando un problema di corresponsabilità;
  3. promessa: l’IA viene promessa come soluzione infallibile, anche se è solo un algoritmo complesso. Questo è il rischio maggiore, poiché, come si è visto, crea un impegno contrattuale di infallibilità.

Il vero rischio, insomma, «è la promessa – ha concluso il dottor Antenucci – di un risultato migliore. L’aspettativa di “errore zero”, se non soddisfatta, genera responsabilità. L’IA, quando promessa, crea aspettative e impegni contrattuali che devono essere attentamente considerati».

L’ultimo tassello per delineare il quadro in cui si inserisce l’intelligenza artificiale è stato fornito da Letterio Saverio Costa, direttore tecnico capo della Polizia di Stato, funzionario del Centro Operativo per la Sicurezza Cibernetica della Polizia Postale per il Veneto, che ha puntato il faro sull’uso criminale dell’IA in particolare per la creazione di contenuti falsi, dai video ai cloni vocali, e per le truffe.
L’esperto è partito da una domanda: come cambia la vita lavorativa del medico con l’IA? «Qui – ha spiegato – c’è un problema grosso. So che molti di voi già combattono con il dottor Google... Il paziente arriva già informato, catechizzato su quello che secondo lui ha, sulla cura e le terapie da fare. Viene già convinto della sua diagnosi e con l’intelligenza artificiale le cose andranno anche peggio. Se la persona pensa che sta avendo un infarto, troverà il contenuto che gli dimostra che ha ragione, a prescindere dai sintomi. Perché l’IA dà al paziente la risposta che vuole, per generare dopamina e incoraggiare un uso continuo». Altra preoccupazione: l’IA può “inventare” le cose pur di dare ragione a chi la interpella.
L’intelligenza artificiale, però, in realtà non cambia la natura dei reati, ma li rende più facili da commettere. L’uso del fotoritocco, ad esempio, per denigrare le persone, o la creazione e diffusione di immagini pornografiche generate dall’IA. O ancora: la clonazione della voce, resa più facile visti i tanti contenuti vocali ormai disponibili on line, che sempre più spesso porta a truffe e richieste di denaro fraudolente.
«Il problema, allora – ha sottolineato il poliziotto – è sempre collegare il cervello e chiedersi se ciò che si vede è reale». Sotto il profilo pratico meglio attivare la doppia autenticazione su tutti i dispositivi e account per proteggersi dai truffatori che usano l’affidabilità delle vittime per veicolare frodi. I messaggi vocali, invece, non sono a rischio clonazione finché restano privati e non vengono pubblicati sui social. La prevenzione infine passa anche, ad esempio, dall’evitare di scaricare app non sicure o da fonti sconosciute, che potrebbero, una volta installate, infettare i dispositivi. «Quando allora – il consiglio finale del dottor Costa – ricevete un messaggio o una chiamata e c’è qualche campanello d’allarme, fermatevi, chiudete tutto e contattate direttamente la persona attraverso un canale conosciuto».

IA: le declinazioni pratiche già in uso
Delineato il contesto di riferimento per l’uso dell’intelligenza artificiale in medicina, la seconda parte del convegno, moderata dal presidente della CAO lagunare Giuliano Nicolin e dal segretario dell’Ordine Paolo Sarasin, si è occupata di alcuni degli usi concreti dell’IA nelle discipline mediche, a partire dallo sviluppo in cardiologia, approfondito da Sakis Themistoclakis, primario dell’unità complessa dell’Ulss 3 Serenissima.
Il relatore si è concentrato in particolare sul trattamento delle aritmie cardiache «ambito in cui – ha sottolineato – il progresso della tecnologia ha fatto negli ultimi 40 anni passi da gigante». Un primo momento di svolta è stato l’introduzione dell’ablazione transcatetere tra gli anni Ottanta e Novanta del secolo scorso e «il successivo uso – ha aggiunto – dell’energia a radiofrequenza, che ha reso il trattamento più sicuro. Nel corso degli anni, poi, si sono sviluppati vari cateteri, sistemi di mappaggio e nuove energie fino all’attuale ablazione a campi pulsati».
Una tecnologia che si basa sull’elettroporazione, tecnica che la cardiologia sfrutta per utilizzare lesioni di breve durata, ma molto intense. «Questo ci consente – ha spiegato il primario – di evitare danni a strutture nervose o vascolari e alla muscolatura liscia dell’esofago. Un altro beneficio è la preservazione del tessuto. Questa tecnologia, però, ha un impatto inferiore per la fibrillazione atriale rispetto alle altre aritmie».
Progressi notevoli con la tecnologia anche nel campo dell’imaging, dove si si sta passando dall’eco-intracardiaco bidimensionale a un’eco 4D che grazie all’IA permette ricostruzioni tridimensionali di strutture cardiache, utili per visualizzare il contatto dei cateteri e il posizionamento di dispositivi, e nel mappaggio delle aritmie, «grazie a software – ha aggiunto il dottor Themistoclakis – che integrano immagini TAC o risonanza ed eco in tempo reale, creando ricostruzioni tridimensionali ad alta densità. L’IA automatizza l’identificazione dei segnali critici nel circuito dell’aritmia, riducendo l’intervento umano e migliorando la precisione».
L’IA viene applicata, inoltre, anche nello screening della fibrillazione atriale: dispositivi impiantabili come pacemaker, defibrillatori e loop recorder, generano alert che vengono analizzati e che permettono di ridurre i falsi allarmi. Ci sono poi da considerare i dispositivi indossabili che stanno proliferando, dagli smartwatch agli indumenti, che raccolgono una mole enorme di dati che, però, bisogna come gestire e l’IA può aiutare a scremarli per individuare patologie.
«L’intelligenza artificiale – ha concluso il dottor Themistoclakis – sta trasformando la medicina, migliorando le capacità diagnostiche e di trattamento delle aritmie. Tuttavia, è fondamentale usare questi dati con prudenza, stabilire chiare linee di responsabilità, garantire un training appropriato e condurre studi rigorosi. Sono necessarie linee guida multidisciplinari che coinvolgano medici, statistici sanitari, giuristi e l’industria, ricordando che “da un grande potere deriva una grande responsabilità”».

Ma come decide il medico? E come decide l’intelligenza artificiale? È partito, invece, da queste domande il dottor Sandro Panese, primario delle Malattie Infettive dell’Ulss 3 Serenissima, per evidenziare vantaggi e svantaggi dei due processi che portano alle scelte terapeutiche.
In medicina il processo decisionale tradizionale «si basa – ha sottolineato – sul ragionamento clinico, ma anche sulla conoscenza, sull’esperienza, sull’intuizione e sulla sensibilità del medico che può così adattarsi alle diverse circostanze, fare scelte anche con dati incompleti, richiamarsi al rapporto di fiducia con il paziente». C’è però anche un lato oscuro della medaglia: la difficoltà nel riconoscere i propri pregiudizi, l’influenza di stress e fatica, la variabilità nell’aggiornamento professionale, i limiti di tempo ed efficienza.
L’approccio dell’IA, invece, utilizza algoritmi e si avvale di un enorme archivio dati. I meccanismi principali sono il machine learning, impostato dall’uomo e che produce deduzioni basate su statistiche, e il deep learning che elabora dati in modo più complesso imparando da esperienze precedenti.
Ovviamente i vantaggi sono legati alla capacità di elaborazione massiva di dati, all’assenza di influenza da stress o fatica e alla conformità alle linee guida, aspetto importante per le questioni medico-legali. Gli svantaggi, invece «includono – ha spiegato il primario – la non spiegabilità degli algoritmi di deep learning, problemi di responsabilità professionale e il rischio di “garbage in garbage out”: se, cioè, i dati di base sono di bassa qualità, anche i risultati lo saranno». La macchina, inoltre, può perpetuare ingiustizie, se basata su dati storici non corretti, e non considera le valutazioni del paziente. «Un ultimo rischio infine – l’allarme del relatore – è l’eccessiva dipendenza dall’IA, che può portare a una perdita di abilità e cultura nel personale sanitario».
Significative, dunque, le differenze tra intelligenza umana e artificiale: il medico apprende dall’uso e dall’esperienza e comprende il nesso causa-effetto, mentre la macchina richiede molti più dati ed è correlazionista, cioè identifica passaggi di analisi statistiche trovando correlazioni.
Il modello, dunque, che può funzionare «è un approccio integrativo – ha concluso il dottor Panese – tra intelligenza umana e artificiale. L’IA eccelle nello screening di massa, nell’analisi di grandi numeri di dati e nella standardizzazione delle decisioni; l’intelligenza umana è fondamentale per l’elasticità, l’applicazione nel contesto clinico specifico e il rapporto medico-paziente. È l’integrazione che può portare a risultati migliori e a ridurre il carico di lavoro clinico. L’intelligenza umana e artificiale sono forme diverse, ma complementari: l’IA non sostituisce le capacità umana, ma le amplifica».

Anche l’assistenza sul territorio può trarre beneficio dall’uso dell’intelligenza artificiale, in particolare attraverso la telemedicina e per migliorare la gestione dei pazienti cronici. Un tema approfondito ampiamente da Simona Sforzin, appena nominata direttore dei Servizi Socio-sanitari dell’Ulss 2 Marca Trevigiana, che però ha proposto subito un “bagno di realtà” «evitando – ha detto – promesse irrealizzabili. Di intelligenza artificiale c’è n’è pochissima nella vita reale, ma ci sono grandi potenzialità, ad esempio, nel migliorare la presa in carico del paziente cronico con la telemedicina e in altri aspetti organizzativi in cui l’IA è già attiva nella nostra Regione».
Presupposti di base, da cui partire per ogni ragionamento sulle cure territoriali, sono l’invecchiamento della popolazione e l’aumento dell'aspettativa di vita, una vita, però, spesso accompagnata da disabilità che pongono sfide significative.
Le prospettive di cambiamento, allora, riguardano la geografia e le geometrie della sanità, che devono spostarsi da strutture fisiche concentrate come gli ospedali a sistemi più diffusi sul territorio, fino alla casa del paziente. Il PNRR e l’avvio delle Case della Comunità rappresentano di sicuro un’opportunità per innovare l’assistenza territoriale, ma si devono anche cercare «nuovi indicatori – ha aggiunto – che misurino l’impatto sulla salute dei cittadini».
La telemedicina, allora, il cui sviluppo è stato accelerato dalla pandemia del 2020, si declina in diverse tipologie:

  • la televisita, utile per visite di controllo e follow-up, evitando spostamenti del paziente;
  • il teleconsulto, che permette il confronto con colleghi più esperti;
  • la teleassistenza, particolarmente sviluppata nella teleriabilitazione, che consente di seguire i pazienti a domicilio, monitorando esercizi e uso di ausili;
  • la telerefertazione, realtà già consolidata in settori come la neuroradiologia e la cardiologia.

Sul territorio regionale, inoltre, l’IA viene applicata nel numero unico europeo per le cure non urgenti 116117, un sistema che identifica i bisogni sanitari, socio-sanitari e informativi dei pazienti. «Per i bisogni sanitari – ha spiegato la relatrice – che rappresentano il 90% delle chiamate, l’IA aiuta a recuperare informazioni anagrafiche e a decodificare le richieste del cittadino. Un algoritmo valuta il bisogno utilizzando termini colloquiali e assegna una priorità». Il sistema rileva anche le non conformità per migliorare l’apprendimento degli operatori.
«Le sfide – ha concluso la dottoressa Sforzin – sono migliorare l’assistenza ai pazienti cronici, farlo in modo sostenibile, rendere le Case di Comunità luoghi stimolanti per nuove pratiche, valorizzare il ruolo dell’infermiere di famiglia e di comunità nella gestione delle malattie croniche e nell’educazione all’autocura, sfruttare il telemonitoraggio e il numero unico 116117 come strumenti organizzativi per gestire i bisogni sanitari».

Una vera e propria rivoluzione digitale è in corso, invece, nell’ambito dell’odontoiatria, come ha illustrato il dentista veneziano Marco Paoli.«L’innovazione tecnologica – ha spiegato – ha accelerato le procedure standard. L’IA è entrata nel settore 6 o 7 anni fa, ma nel giro di un paio d’anni c’è stata una crescita esponenziale di pubblicazioni sul suo uso in ambito dentistico, ben 3.670 in più, segno di un cambiamento rapido e radicale. L’IA può fare la differenza, ma è un’arma a doppio taglio: se non usata correttamente può portare complicazioni».
Sono due i tipi di applicazione in odontoiatria: quelle extra-cliniche e quelle cliniche. Le prime, grazie a tool e strumenti particolari, come le registrazioni video, permettono l’automazione e la velocizzazione di processi ripetitivi, come la gestione della segreteria, una comunicazione più efficace con i pazienti e la formazione del personale. Sono una sorta di acceleratori per rendere il percorso più standardizzato e semplice, permettendo ai professionisti di dedicarsi alla cura del paziente.
In ambito clinico, invece, l’IA ha rivoluzionato soprattutto la chirurgia e la segmentazione delle strutture anatomiche, consentendo uno studio dell’anatomia più performante: supporta la diagnosi, analizzando dati da TAC o biopsie tridimensionali per identificare le patologie o la probabilità che insorgano. «La segmentazione con l’IA – ha aggiunto – in 5 minuti permette di ricostruire e interpretare scansioni in modelli matematici 3D, creando un “paziente virtuale” su cui possiamo iniziare a lavorare, per pianificare interventi chirurgici e valutare il possibile esito. La potenza di visualizzare il caso prima ancora di toccarlo è incredibile».
Uno strumento che permette di simulare diversi scenari operatori e che obbliga il clinico a studiare approfonditamente il caso prima dell’intervento. La chirurgia guidata, poi, resa possibile proprio dall’intelligenza artificiale, riduce di dieci volte l’errore rispetto alla mano libera.
«L’IA – ha concluso il dottor Paoli – non sostituisce la responsabilità del medico, la valutazione del rischio o la relazione umana con il paziente. Se usata in modo etico e saggio, può aumentare l’efficienza del lavoro e permette di dedicare più tempo alla cura. Attenzione però perché il rischio di essere influenzati dal marketing e dalla comunicazione fuorviante è sempre presente».

La radiologia, infine, è un altro ambito in cui l’utilizzo dell’intelligenza artificiale è già molto avanzato «grazie a dati digitali abbondanti, ai processori performanti e ad algoritmi di ultima generazione», come ha spiegato Gabriele Gasparini, primario dell’unità complessa dell’Ulss 4 Veneto Orientale.
Dopo aver tracciato una sintetica storia delle applicazioni dell’IA in campo radiologico, a partire dal primo CAD (Computer-Aided Detection) del 1998 che aiutava i medici a individuare le anomalie, il relatore ha sottolineato come «un passo avanti significativo sia stata l’introduzione delle reti neurali profonde nel 2012, con software che hanno radicalmente modificato la radiologia. Questi algoritmi imparano autonomamente e sono in grado di riconoscere pattern complessi nelle immagini, superando le capacità dei sistemi precedenti».
L’IA sta spostando la radiologia da una fase puramente tecnica a una clinica, aiutando nella predizione delle malattie e nella decisione se trattare o meno una patologia, «tuttavia – ha aggiunto il primario – il suo uso comporta responsabilità significative per il medico, poiché la macchina può commettere errori. La decisione finale spetta sempre al radiologo». Tra i vantaggi portati dalla tecnologia la capacità di migliorare l’immagine, di definire la priorità degli esami urgenti e di ridurre il carico burocratico-amministrativo, se viene integrata in modo organizzato, così da non aggiungere complessità al lavoro dei professionisti sanitari.
Queste, dunque, le applicazioni pratiche dell’IA in radiologia:

  • gli screening dei tumori, in cui è efficace per individuare tumori e noduli, riducendo i falsi negativi;
  • la riduzione della dose di radiazioni: nelle TAC permette di ottenere immagini di alta qualità con dosi di radiazioni significativamente inferiori;
  • la risonanza magnetica, per ridurre il tempo di esecuzione degli esami;
  • l’identificazione di fratture, dato che l’IA può individuare anche quelle più piccole che spesso sfuggono all’occhio umano;
  • lo stroke, in cui permette una diagnosi rapida e accurata.

Il futuro della radiologia, invece, sarà la radiomica, tecnica in cui le macchine analizzano immagini con una risoluzione superiore a quella umana, permettendo di prevedere la presenza di tumori molto prima.
Tanti, dunque, i benefici, ma ci sono anche le criticità: la responsabilità legale in caso di errore della macchina, il rischio di contenziosi, l’incremento degli esami radiologici legati alla medicina difensiva e i problemi di sicurezza informatica. «È essenziale – ha concluso il dottor Gasparini – che i radiologi si adattino a questi nuovi strumenti, poiché il radiologo che non li usa sarà sostituito da quello che li usa». Perché anche per il futuro il nodo cruciale è proprio questo: l’intelligenza artificiale non sostituirà il medico e l’odontoiatra, ma chi non la saprà usare.

Chiara Semenzato, giornalista OMCeO Venezia