Intelligenza artificiale usata per le diagnosi fai da te: l’allarme dei medici
PAVIA. Sempre più persone, anche in provincia di Pavia, talvolta colpite da banali cefalee, si convincono di avere forme gravi di tumore. Alcuni arrivano persino a mettere alla prova i medici di base affermando di aver già chiesto un referto all’intelligenza artificiale. Questa nuova forma di auto-diagnosi digitale, alimentata dall’accessibilità delle chat-bot, sta dilagando e preoccupa medici e istituzioni. Dopo l’allarme lanciato dal Garante per la protezione dei dati personali (Garante della privacy), anche l’ordine dei medici chirurghi e degli Odontoiatri della provincia di Pavia e il sindacato dei medici di famiglia locale evidenziano i rischi.
Parlano i medici pavesi
«Il rapporto tra paziente e medico è fondamentale – ribadisce Giorgio Monti, presidente del sindacato Fimmg di Pavia –. L’intelligenza artificiale, e Agenas sta lavorando a un programma di supporto per i medici, può essere una risorsa nelle cure: mai un sostitutivo. Sono soprattutto le nuove generazioni ad abusare di questi strumenti forniti dalle più recenti tecnologie. Il rapporto con il professionista della medicina però non può essere sostituito, perché il medico visita e conosce la storia del paziente».«L’abitudine di caricare referti e relazioni cliniche su piattaforme d’intelligenza – spiega il dottor Claudio Lisi, presidente dell’ordine pavese dei medici – rappresenta un pericolo serio per la privacy e per la sicurezza dei dati sensibili. Le risposte generate automaticamente non possono e non devono sostituire la valutazione clinica. La tutela della salute passa attraverso corretta informazione, relazione diretta e fiducia reciproca tra medico e paziente».
Il tema è già stato affrontato in un convegno organizzato dall’oOrdine pavese. Secondo Lisi, il pericolo concreto è che il paziente basi su indicazioni non validate decisioni importanti riguardo alla propria salute, con conseguenze potenzialmente molto gravi. Per i medici, l’intelligenza artificale può essere uno strumento utile, ma non un sostituto: deve supportare, non surrogare, l’esperienza e la competenza professionale. «Questa materia merita tutta la nostra attenzione: il pericolo concreto è che i pazienti possano basare decisioni importanti che riguardano la propria salute su indicazioni non validate professionalmente, con conseguenze potenzialmente molto gravi – dice ancora Claudio Lisi – Per il medico, invece, l'intelligenza artificiale può essere uno strumento importante, ma non deve essere un suo surrogato: l’intelligenza artificiale deve supportare, non sostituire, l'esperienza e la competenza del medico».
Il garante della privacy
Alla base di questa tendenza crescente c’è un fenomeno definito “allarmante” dal garante della privacy: il caricamento di referti medici su chatbot per ottenere interpretazioni o diagnosi. L’Autorità ha evidenziato due criticità principali: il rischio di perdita di controllo su dati sanitari sensibili e la possibilità che strumenti di intelligenza artificiale generativa, non certificati come dispositivi medici, forniscano risposte errate o fuorvianti. Le riflessioni dei medici pavesi si inseriscono in questa cornice: le piattaforme di intelligenza artificiale generativa non possono sostituire il medico. Il rapporto diretto, l’esperienza professionale e la valutazione clinica rimangono i pilastri della diagnosi sicura. L’IA può affiancare, offrire supporto, ma richiede sempre una supervisione umana, in coerenza con quanto indicato dalle istituzioni e dalle autorità di controllo.Il fenomeno dell’auto-diagnosi, con pazienti talvolta convinti di avere patologie gravi pur avendo sintomi lievi, rischia di minare il rapporto fiduciario tra medico e paziente e di generare ansia. Il messaggio che arriva da Pavia è chiaro: la salute non è un menù digitale di sintomi e diagnosi, ma un percorso umano di ascolto, analisi e cura.
