“L’intelligenza artificiale non può sostituire il medico, ma il medico può utilizzare questo strumento per migliorare le propria capacità professionale, ottimizzando le conoscenze e l’esperienza personali”. Lo spiega Antonio Magi, presidente dell’Ordine dei medici (Omceo) di Roma, parlando dell’uso, sempre più diffuso in sanità, di sistemi legati all’intelligenza artificiale.
“Se lasciato al governo del medico – prosegue Magi – il ricorso all’intelligenza artificiale è un fatto estremamente positivo, sempre che questo avvenga attraverso il rispetto di determinate regole ed entro limiti precisi. Nella parte amministrativa, come per esempio la gestione degli appuntamenti e dell’agenda, può certamente essere di aiuto. Se invece l’IA decide che per abbattere le liste d’attesa è necessario che le visite durino non più di un minuto, è chiaro che c’è qualcosa di sbagliato. Non è il modo migliore per aiutare la sanità”.
Sempre Magi: “Ben vengano dunque Chatbot, Chat Gpt e altri servizi di machine learning in ambito sanitario, purchè siano usati dal medico in maniera autonoma. L’importante è che tutto sia gestito dal professionista sanitario, soprattutto per quanto riguarda modalità e tempistiche. Se invece il medico è costretto a seguire le indicazioni dell’IA, siamo di fronte a una stortura”.
Il numero uno di Omceo Roma si dice estremamente preoccupato dagli sviluppi che l’intelligenza artificiale sta facendo registrare in ambito sanitario: “Si stanno creando situazioni che non aiutano affatto il medico nella propria attività professionale. Mi ha molto colpito, ad esempio, una piattaforma di intelligenza artificiale approvata dall’ultimo Consiglio dei ministri per la medicina generale, che potrebbe addirittura rappresentare un controllo sulla tipologia delle prescrizioni, togliendo di fatto al medico quell’autonomia professionale indispensabile per la qualità della professione”.
E ancora: “La qualità del medico non è solo nella sua autonomia decisionale, ma anche nella sua esperienza nel momento in cui è chiamato a decidere quale cura e quale terapia somministrare al paziente. Ecco perché vedo con grande preoccupazione il modo in cui l’intelligenza artificiale potrebbe indirizzare il medico e il suo lavoro”.
Magi si sofferma poi su un aspetto medico-legale: “Se a seguito di una diagnosi il medico dà una terapia certificata dall’IA e poi questa non risulta corretta, la responsabilità ricade comunque e sempre sul medico. E allora la deve usare o meno? Potremmo ritrovarci di fronte a un caso di medicina difensiva anche nell’intelligenza artificiale”.
Redazione Nurse Times
Articoli correlati
- Batteri resistenti agli antibiotici: nuovi farmaci sintetizzabili grazie all’intelligenza artificiale
- Tumore al seno, intelligenza artificiale predice rischio di effetti collaterali dopo chirurgia e radioterapia
- Intelligenza artificiale e radiologia: la rivoluzione della diagnostica senologica
- Intelligenza artificiale in sanità: benefici, rischi e prospettive secondo l’OCSE
- L’intelligenza artificiale nell’infermieristica: un nuovo paradigma di cura
Scopri come guadagnare pubblicando la tua tesi di laurea su NurseTimes
Il progetto NEXT si rinnova e diventa NEXT 2.0: pubblichiamo i questionari e le vostre tesi
Carica la tua tesi di laurea: tesi.nursetimes.org
Carica il tuo questionario: https://tesi.nursetimes.org/questionari
Lascia un commento