Visite: 445

L’intelligenza artificiale tanto intelligente ancora non è, almeno per ora. Meglio parlare – così dice l’esperto – di algoritmi complessi capaci di elaborare e sintetizzare una quantità incredibile di dati. E qui sì che le applicazioni in sanità sono potenzialmente utilissime. In primis sul fronte dell’appropriatezza, ma anche e soprattutto per liberare medici e odontoiatri da attività ripetitive e burocratiche così da dedicare più tempo all’ascolto e alla cura. E si può stare tranquilli: difficile che la macchina che autoapprende possa, alla fine, sostituire i camici bianchi in carne e ossa.
Sono solo alcuni degli spunti emersi sabato 2 marzo 2024 durante il convegno Intelligenza artificiale in sanità. Prospettive, opportunità e rischi di un progresso inevitabile organizzato impeccabilmente per l’OMCeO veneziano dal presidente della CAO lagunare Giuliano Nicolin al Centro Pastorale Cardinal Urbani di Zelarino. Un’iniziativa di formazione molto partecipata che ha visto anche la presenza degli studenti del Liceo scientifico con potenziamento biomedico Majorana-Corner di Mirano.
Una mattinata di studi per declinare le tante possibili applicazioni dell’intelligenza artificiale in ambito sanitario partendo dagli aspetti legati alla privacy e alla protezione dei dati, passando per le prospettive medico legali, della responsabilità professionale e organizzative, per approdare, infine, alle aspettative degli specialisti.

Guarda qui i volti dei protagonisti
Guarda qui i video di tutte le relazioni
Guarda qui le slide dei relatori

I motivi di questo convegno
I motivi che hanno spinto l’OMCeO veneziano a organizzare questo convegno sono stati chiaramente illustrati proprio dal direttore scientifico Giuliano Nicolin all’apertura dei lavori. «Questa giornata – ha spiegato – nasce perché abbiamo visto che sul tema c’è confusione, anche sul concetto stesso di cosa si intenda per intelligenza artificiale. È una cosa arrivata come una valanga nella nostra professione, accolta con molto favore, ma con poca conoscenza, poca capacità di capire quali siano gli aiuti che ci può dare e i rischi che comporta. Rischi che sono spesso sottovalutati, non ascoltati o sconosciuti. Non è tanto la preoccupazione di sapere se saremo sostituiti dall’IA, quanto la preoccupazione per l’idea che saremo resi infallibili dagli strumenti a cui oggi diamo questo nome. Tutto l’aiuto che ne può venire va sfruttato, ma per sfruttarlo dobbiamo conoscerlo».

«Oggi non si parla di fantascienza – ha precisato anche Giovanni Leoni, presidente dell’Ordine lagunare e vice nazionale – si parla dell’evoluzione della potenza di calcolo da parte dei processori che dà una grande possibilità ai professionisti di analizzare tanti dati in modo più veloce e completo e stimola molto la fantasia collettiva. Anche se non potrà sostituire le caratteristiche empatiche dell’uomo e del rapporto tra le persone».
Una tematica, quella dell’intelligenza artificiale, fondamentale, nuova e importante che la Regione Veneto ha già cominciato ad affrontare da qualche anno, come ha sottolineato Marco Milani, portando i saluti della Direzione prevenzione, sicurezza alimentare, veterinaria. «Nello screening per il tumore della mammella – ha spiegato – in una delle aziende sanitarie c’è in questo momento il supporto dell’intelligenza artificiale, a sostegno dell’attività del clinico. L’attività medica, però, deve rimanere una guida per le decisioni, la diagnosi e la terapia. Ci troviamo ad affrontare sfide nuove, forse anche complicate: l’unica cosa certa è che bisogna farsi trovare preparati. Per riuscire a utilizzare al meglio questa risorse sono importanti la formazione, l’informazione e la corretta comunicazione ai cittadini».

Intelligenza artificiale e privacy
La privacy da rispettare e la tutela dei dati sensibili, il primo e più generale tema approfondito grazie all’intervento in collegamento di Guido Scorza, componente del Garante per la Protezione dei Dati Personali, che ha sottolineato subito come il dialogo interdisciplinare su questo tema sia fondamentale ed essenziale, «può fare la differenza – ha detto – nel rendere sostenibile e prezioso l’impatto dell’intelligenza artificiale sul pianeta salute in particolare».
Garantire alle persone, ai pazienti in questo caso, il diritto a non dover scegliere tra salute e privacy, tra salute e innovazione tecnologica – «non c’è antagonismo tra i diritti» ha detto – il primo argomento affrontato dal giurista che poi però si è soffermato sulla disciplina europea sulla protezione dei dati personali e sulla possibilità di libera circolazione di questi dati, sulle regole che si stanno scrivendo anche sull’IA e che «non vanno considerate come monoliti immodificabili nel tempo, ma vanno tenute al passo con le esigenze della società», sulla linea di confine in sempre più rapida erosione tra dato personale e dato sanitario.
«Tutti insieme – ha concluso il dottor Scorza – dobbiamo scongiurare il rischio che il dottor OpenAI o il dottor Google, senza aver mai fatto il giuramento di Ippocrate, prendano il posto di migliaia di professionisti che quel giuramento l’hanno fatto. Dobbiamo tracciare una linea di confine tra il trattamento di dati personali, strumentali all’esercizio del diritto alla salute, e trattamenti analoghi in ambito extraclinico, in quel mercato dove è la regola del profitto a dettare il passo».

L’intelligenza artificiale e i possibili impieghi in sanità
Gli aspetti tecnici dell’intelligenza artificiale, quelli legati ai rischi professionali, il punto di vista medico legale e le declinazioni nell’organizzazione del sistema sanitario sono stati i temi approfonditi nella prima sessione, moderata da Paola Frati, docente di Medicina Legale all’Università La Sapienza di Roma, che ha sottolineato come questo progresso inevitabile «debba essere cavalcato, senza averne paura, senza farsi travolgere, cercando di capirne i confini. Io sono fiduciosa: l’IA ci porta verso un binario di conoscenze in continua evoluzione che ci può arricchire, ma noi dobbiamo rimanere protagonisti perché la scelta resta all’uomo».

Il primo dato di fatto: non esiste una casistica che ponga il medico legale di fronte alle problematiche scaturite dall’intelligenza artificiale. È partita da qui Sarah Nalin, segretario della Società Medico Legale del Triveneto, per affrontare il tema della causalità, strumento principe del ruolo medico legale, «che sarà ciò – ha spiegato la relatrice – che ci aiuterà a risolvere problematiche medico legali derivanti dall’IA».
Causalità che può essere materiale e giuridica, regolate rispettivamente dall’articolo 40 del Codice Penale e dall’articolo 1223 del Codice Civile – che dicono se ci sia una responsabilità e quanto e chi debba eventualmente risarcire il danno – e unica, quando una causa è sufficiente a dare un effetto, o concausale, quando cioè c’è un concorso di cause, quando una sola causa non dà quell’effetto, secondo quanto stabilito dall’articolo 41 del Codice Penale.
Due le casistiche prese ad esempio:

  • il malfunzionamento di un device che utilizza l’IA e che crea un danno a un paziente: è inequivocabile il malfunzionamento? Il medico ha avuto tempo di cambiare qualcosa nel danno che si è creato al paziente? La responsabilità è del device o del sanitario?
  • un medico che utilizza l’IA in alcune fasi, affiancato da un boot virtuale, che il paziente vede in momenti diversi: chi dei due ha sbagliato? Uno, l’altro, entrambi? E in che quota parte?

«Come medico legale – ha aggiunto la dottoressa Nalin – la prima domanda da farsi è: ma quel device dotato di IA ha causato da solo o ha concausato il danno? E se l’errore del device non ci fosse stato, la lesione ci sarebbe stata o no? Il ragionamento sul nesso di causalità non potrà essere applicato con superficialità. È difficile capire dal punto di vista giuridico come inquadrare l’IA. L’intelligenza artificiale non si assumerà mai dei rischi. Il medico sì. È una sfida».

Anche il risk manager Flaviano Antenucci ha scelto un esempio pratico per parlare di IA e gestione del rischio clinico: un articolo di stampa che fin dal titolo promette una “risonanza magnetica ad alto campo con l’intelligenza artificiale”. «Da paziente – ha sottolineato – non so cosa sia l’alto campo, ma immagino che sia meglio del basso campo… E poi l’intelligenza artificiale: questa sarà una bomba, questa macchina dunque sarà infallibile. Già da qui scopriamo che il mondo della responsabilità gira intorno alle promesse e non alle colpe».
Il relatore ha quindi passato in rassegna il funzionamento della responsabilità civile in Occidente, l’onere della prova che spetta al paziente, il concetto di colpa sostituito da quello di violazione di attese legittime, la diversa valutazione di un danno, una cicatrice ad esempio, legato ai tempi che cambiano. «La responsabilità oggi – ha aggiunto il manager – è basata su attese legittime e non su aspetti più scientifici. Ma perché? Perché la produzione sanitaria fattura più di qualsiasi altra attività industriale e perché nel nostro paese più del 80% delle risorse non viene speso per salvare la vita, ma per la salute del paziente».
La responsabilità occidentale, dunque, è lesione delle aspettative – quelle ad esempio che nascono quando si legge RM ad alto campo… – che, però, sono anche legittimate dal comportamento del medico o delle strutture sanitarie tutte le volte che sono proposti percorsi terapeutici che non servono a salvare la pelle del paziente.
Parlare poi, oggi, di intelligenza artificiale è quanto meno fuorviante. «È la moda del momento – ha detto il dottor Antenucci – ma in realtà tutto quello che vediamo è solo algoritmo complesso che raccoglie tutti i dati velocemente e ci dà una risposta velocemente. Quello che dovrà fare l’IA è ciò che fa il clinico: fare un’ipotesi diagnostica non dopo aver raccolto tutti i dati possibili, ma con quelli che ha a disposizione. Trovare ordine e una soluzione nella complessità».
Usando la tecnologia come strumento, il medico sarà comunque tutelato. Se, invece, ci sarà un affiancamento tra professionista e intelligenza artificiale, cambierà il rapporto con il paziente e ci potrà essere una corresponsabilità. Se, infine, l’IA genera aspettative, nuove promesse, il rapporto con il paziente cambia del tutto e le garanzie non funzioneranno. «L’intelligenza artificiale – ha concluso il manager – non è in questo momento un motore nella sanità. Può fare qualcosa, ma soprattutto è importante quello che ancora non fa».

Tutti i rilievi squisitamente tecnici – cos’è davvero l’intelligenza artificiale e a che punto è arrivata – sono stati affidati al professore e ricercatore Marco Armoni, presidente del Comitato Scientifico Ente nazionale per la Trasformazione digitale, autodefinitosi “un piccolo artigiano dei dati, il magazziniere degli switch”.
Il relatore è partito da due esempi concreti, l’esperienza fallimentare della chatbot Tay di Microsoft ritirata in 24 ore per aver insultato il genere umano e un’intelligenza artificiale che scambia falsi positivi e falsi negativi negli screening mammografi, per dire subito che l’IA ha grossi limiti. «Il concetto di intelligenza artificiale – ha spiegato – non esiste: è una macchina che simula quello che fa un uomo, ma non prende decisioni e non lo farà mai».
L’IA è costituita da una classificazione di elementi che può essere supervisionata o meno: si può dire cioè direttamente alla macchina quali siano gli elementi o dirle quale sia la categoria da cui attingere gli elementi per elaborarli e lei procederà per errori. C’è poi l’idea decisionale che usa la statistica per dire qual è la cosa più probabile. «Il problema, insomma – ha aggiunto – è l’analisi dei dati: quanti dati ci servono per fare questo? Una valanga, milioni, miliardi».
E tutte le applicazioni in giro oggi sfruttano, in realtà, i grandi motori di intelligenza artificiale: OpenAI, Google, Amazon, Microsoft. «ChatGPT ad esempio – ha sottolineato il professore – non può essere affidabile perché, è vero, ha un cervello grandissimo, 176 miliardi di parametri al suo interno, ma non impara niente. Qualcuno gli ha detto quali informazioni prendere e non è connessa a internet per cercarne altre: è indietro di 2 anni. E poi ha un problema di immagazzinamento dei dati: non c’è lo spazio fisico per metterli dentro».
C’è poi l’IA connessa a internet, Gemini, quella di Google, che ha però un altro problema: non distingue le informazioni fasulle. «E allora – ha detto il relatore – bisogna fare educazione sull’uso del mezzo: bisogna scrivere bene le domande per ottenere risposte articolate e non banali. I motori di ricerca, poi, non possono essere facilmente penetrati o hackerati, ma i dati possono essere facilmente drogati e gli ostacoli aggirati».
Tutto un mondo quello dell’IA, insomma, da conoscere, considerando anche che i server sono tutti negli Stati Uniti, dove non esiste una legge sulla privacy e i dati vengono sfruttati. Un mondo che va regolamentato, «ma su questo – ha concluso il professor Armoni – siamo già in ritardo: se usciamo adesso con le linee guida, le app sono già molto più avanti».

L’intelligenza artificiale, infine, può essere applicata dalle strutture sanitarie anche a livello organizzativo. Questo il tema approfondito da Alessandra De Palma, direttore Medicina Legale e Gestione Integrata del Rischio dell’IRCCS Azienda Ospedaliero-Universitaria di Bologna, Policlinico S. Orsola, che si è subito soffermata sulle possibilità, in tempi di carenza di medici e risorse, di potenziare le strategie di cura attraverso i nuovi strumenti.
«Non si tratta – ha spiegato – di affidarsi a medici o infermieri “digitali”, ma di progettare e poi utilizzare “automi digitali” che possano svolgere alcuni compiti a basso rischio o che permettano di velocizzarne altri: il self-triage, ad esempio, per indirizzare il paziente nel corretto setting assistenziale o ridurre i tempi d’attesa al Pronto Soccorso. O ancora l’educazione e il care management di pazienti cronici o in follow-up di ricovero, la conferma di una terapia, la risposta a quesiti semplici…». Sempre tenendo ben presente, però, che la «pratica medica è e resta un’attività umana soggetta ad errore: il rischio zero in medicina non esiste. Possiamo avere dei supporti, ma non pensare a soluzioni salvifiche che ci permettano di non sbagliare mai».
La relatrice ha poi passato in rassegna le raccomandazioni sull’intelligenza artificiale dell’OCSE, l’Organizzazione per la Cooperazione e lo Sviluppo economico, sui valori per la gestione responsabile di un’IA affidabile, il rapporto di cura che si complica, i nuovi rischi legati alla vulnerabilità digitale, l’appropriatezza, la qualità e la sicurezza delle cure, i punti critici individuati dall’OMS sull’uso dell’IA, la protezione dei dati personali, i profili di responsabilità per la struttura sanitaria, i fattori rilevanti per l’uso in sicurezza della telemedicina (dall’engagement del paziente alle connessioni stabili e sicure).
«Tutto questo – ha aggiunto – richiede una regolamentazione che, peraltro, nasce antica». E proprio alle regole del gioco è dedicata l’ultima parte della sua relazione, a partire dalla Legge 24 del 2017. «Dalle strutture sanitarie – ha concluso la dottoressa De Palma – si pretende la perfezione. Ci si può difendere cercando di documentare tutto ciò che si fa e qui, spero, l’intelligenza artificiale potrebbe darci una mano».
Un’IA, insomma, che «non va da sola – ha concluso la professoressa Frati – va cavalcata e guidata. Con l’intelligenza artificiale si va più veloci, ma solo se siamo capaci di capirne le opportunità».

Intelligenza artificiale e applicazioni cliniche
Tutta dedicata alle applicazioni cliniche dell’intelligenza artificiale in alcune specialità la seconda sessione del convegno, moderata da Silvano Zancaner, direttore della Medicina Legale dell’Ulss 3 Serenissima, e da Filippo Stefani, vicepresidente della CAO lagunare e guida di ANDI Venezia. «Quello che abbiamo capito dalla prima sessione – hanno sottolineato i moderatori – è che se io butto immondizia dentro all’intelligenza artificiale, ottengo immondizia. Quello che turba è che, nel caricamento dei dati, non si distingua l’immondizia da ciò che non lo è. Il rischio è realistico anche in ambito sanitario. Ci vuole sempre l’uomo per un esame fatto bene».

Il primo campo di applicazione clinica indagato è stato quello della radiologia con le suggestioni suggerite da Gabriele Gasparini, neuroradiologo, direttore della Radiologia dell’Ulss 4 Veneto Orientale nonché presidente della Fondazione Ars Medica, braccio culturale operativo dell’Ordine, che è partito da un breve excursus storico sulla nascita dei Raggi X, base dell’attuale diagnostica per immagini ora divenute digitali, e sulle leggi della robotica declinate da Isaac Asimov. «Parlando di radiologia – ha poi spiegato – nei prossimi 3-4 anni la nostra attività professionale cambierà e noi abbiamo 2 possibilità: o restiamo nella comfort zone, e non è una buona idea, oppure accettiamo la sfida».
Partita dalle fotografie, l’area radiologica è poi passata alla digitalizzazione di tutti i processi e ora l’IA ambisce a sostituire l’intelligenza umana «ed è questa la cosa nuova che spaventa – ha precisato il relatore – ma siamo davvero sicuri che la macchina garantisca di capire l’incognito e l’incertezza?». Il dottor Gasparini ha quindi accennato al documento della Società Italiana di Radiologia Medica e Interventistica diffuso nel 2020 per garantire la qualità delle prestazioni rese dall’intelligenza artificiale che oggi, nel settore, viene applicata, ad esempio, per ridurre la dose di radiazioni ionizzanti, per il controllo delle patologie croniche, come la sclerosi multipla, o la lettura degli screening mammografici, per il controllo dell’evoluzione di malattie infiammatorie e neoplastiche, per la telegestione e la telediganosi.
«Noi ci aspettiamo – ha proseguito il dottor Gasparini – che l’IA ci aiuti a migliorare l’appropriatezza, che aumenti non tanto la quantità ma la qualità degli esami radiologici, visto che oggi si fanno tanti esami inutili. E la qualità non solo tecnica, ma dell’intero percorso clinico: che l’esame serva davvero. Non si possono, infine, zippare i tempi dei medici, fare visite velocissime: l’IA ci può aiutare allora a gestire certi processi ridondanti, ma necessari, aumentando il tempo di cura da dedicare ai pazienti».
Dopo aver affrontato il tema della responsabilità delle macchine, del sanitario e della struttura in caso di danni al paziente – con la necessità che la normativa futura delinei i contorni di questa responsabilità sulla prestazione eseguita autonomamente dal device dotato di IA – quello della protezione e della sicurezza dei dati e le norme dettate dal Codice Deontologico e dal Regolamento europeo sull’intelligenza artificiale, «quello che ci aspettiamo davvero – ha concluso il primario – è che l’IA riduca il rischio dell’errore umano per incrementare la qualità e la speranza di vita. E ci aspettiamo che il radiologo, quello vero, non si affidi del tutto al responso dell’intelligenza artificiale».

In odontoiatria, secondo ambito di applicazione indagato, una TAC fatta bene e una scansione perfetta del cavo orale «ci consentono – ha sottolineato Filippo Stefani – non solo di fare la diagnosi, ma anche di programmare la chirurgia». Ad approfondire il tema un giovane odontoiatra, il dottor Marco Paoli, che ha fatto del digitale la mission della sua attività professionale, che utilizza molto l’odontoiatria digitale proprio per migliorare la diagnosi, il trattamento e la gestione dei pazienti odontoiatrici, e che ha provato a inserire nel suo lavoro anche l’IA.
Attraverso efficaci immagini prodotte proprio dall’intelligenza artificiale, il dottor Paoli ha accennato alle società internazionali che iniziano a sorgere per dare alcune linee guida per approfondire poi le applicazioni pratiche dell’IA in odontoiatria sia extra-cliniche – l’uso di un BOT per la segreteria o le risposte immediate su WhatsApp… – sia cliniche.
Tra gli strumenti del dentista digitale: lo scanner intraorale, la radiologia digitale 3D, che velocizza molto i flussi di lavoro, le stampanti 3D, gli scanner facciali. «Queste tecnologie – ha sottolineato il professionista – ci permettono di assemblare un paziente virtuale su cui possiamo fare una diagnosi approfondita, pianificare le riabilitazioni e fare simulazioni, ma su cui possiamo anche studiare e aggiornarci».
Fondamentale, ad esempio, la possibilità di unire insieme file di natura diversa e le applicazioni di IA per i rapporti di radiologia o i report diagnostici di una full CBCT. «Una TAC – ha spiegato il dottor Paoli – richiede almeno una mezz’ora di studio dell’odontoiatra senza il paziente. Se però lo fa l’intelligenza artificiale, io posso parlare di più con il paziente e capire le sue esigenze. Sono analisi che gli algoritmi fanno in 5 minuti e le ricostruzioni sono più accurate di quelle che io farei a mano. Il tutto è sempre finalizzato a sbagliare di meno».
Sul paziente virtuale, insomma, si riesce ad avere velocemente una ricostruzione completa del cavo orale e con l’intelligenza artificiale si ottengono dati a sufficienza per disegnare percorsi di trattamento personalizzati. Altri ambiti di applicazione più tecnica, ancora in fase di evoluzione, la comunicazione attraverso la realtà virtuale e la chirurgia implantare computer-guidata o quella robotica. «Non voglio – ha concluso il dottor Paoli – che le cose mi sfuggano di mano, ma non temo l’intelligenza artificiale perché sono sempre io a decidere. È una scienza esatta? No. Sono strumenti che ci aiutano a sbagliare meno, ad alzare il livello minimo di qualità, a dimezzare i tempi, a ridurre il numero di sedute e a essere più precisi».

Le applicazioni dell’intelligenza artificiale in cardiochirurgia l’ultimo tema affrontato nel convegno con la relazione di Domenico Mangino, primario proprio di questa branca all’Ospedale dell’Angelo di Mestre (Ulss 3 Serenissima). «Il giusto connubio – ha esordito – tra la professionalità del medico e la tecnologia, fatta in maniera adeguata, può rappresentare, secondo me, il matrimonio perfetto per offrire il massimo al paziente».
L’IA, allora, va interpretata come la capacità di una macchina di svolgere compiti intelligenti, come il riconoscimento di immagini e modelli, la pianificazione di azioni, la risoluzione di problemi, «ma il compito più importante – ha aggiunto il medico – è l’applicazione di metodi statistici a grandi quantità di dati, l’utilizzo dei big data a favore del professionista, senza intimorirlo».
In cardiochirurgia sono 4 gli ambiti pratici in cui si applica:

  1. l’imaging, dove l’IA contribuisce a migliorare il valore dell’acquisizione delle immagini, dell’interpretazione del processo decisionale, semplificando il lavoro clinico, e automatizzando compiti semplici e noiosi, mentre il professionista si può concentrare sull’evoluzione clinica del paziente. Applicazioni importanti anche nella radiomica e nella stampa 3D, fondamentale per il training degli specializzandi, soprattutto per le patologie che riguardano l’aorta ascendente e quella toracica;
  2. la clinical prediction, in cui l’IA e l’analisi dei meta dati devono aiutare a predire il rischio di mortalità per i pazienti in modo da cercare di ridurlo il più possibile;
  3. l’analisi delle onde elettrocardiografiche, in cui la tecnologia permette di predire quanti pazienti avranno insorgenza di aritmia o fibrillazione atriale e, al paziente stesso, di controllare quando ha perso il ritmo cardiaco, intervenendo tempestivamente;
  4. la realtà aumentata, la visualizzazione iper realistica con simulatore che serve per addestrarsi sull’intervento da fare in sala operatoria.

In cardiochirurgia, insomma, l’intelligenza artificiale «migliora l’assistenza sanitaria – ha concluso il dottor Mangino – analizzando rapidamente i dati per aiutare la diagnosi e il trattamento, ma non sostituisce i professionisti umani. Supporta, piuttosto che sostituire, il loro lavoro, consentendo al medico di concentrarsi sul processo decisionale. Il tocco umano resta al centro dell’assistenza sanitaria». Il futuro si delinea con modelli ibridi: da una parte la componente guidata da esperti e basata su regole e limiti alla pratica clinica, dall’altra una componente guidata dai dati che apprenderà i pesi dai dati stessi per rafforzare le associazioni tra caratteristiche ed esiti.

«Quello di oggi – ha tirato le somme il presidente Giovanni Leoni – è stato un percorso stimolante anche per noi che abbiamo i capelli grigi». Ha sottolineato poi come resti fondamentale l’esperienza clinica per gestire le complicanze, come infinite possibilità, soprattutto per i giovani, siano offerte dal riprodurre in 3D ciò che si dovrà fare il giorno dopo in sala operatoria e come la responsabilità maggiore sia quali dati si immettono nell’intelligenza artificiale perché «più sono precisi, migliori saranno i risultati».
L’intelligenza artificiale in sanità, insomma, è per ora qualcosa che può semplificare il lavoro, dare indicazioni più precise sulle procedure da attuare e sulla possibile evoluzione della situazione clinica del paziente, ma che non sostituisce il medico – e forse non lo farà mai – perché il lato umano resta sempre protagonista e la relazione con il paziente fondamentale.

Chiara Semenzato, giornalista OMCeO Venezia