• IT
Choose your location?
  • Global Global
  • Australian flag Australia
  • French flag France
  • German flag Germany
  • Irish flag Ireland
  • Italian flag Italy
  • Polish flag Poland
  • Qatar flag Qatar
  • Spanish flag Spain
  • UAE flag UAE
  • UK flag UK

Sanità e IA, la responsabilità medica non si affievolisce

12 November 2025

L'AI Act impone a medici e strutture sanitarie di rivedere le coperture assicurative sui rischi.

L'intelligenza artificiale generativa sta invadendo il settore della sanità, permettendo a medici e strutture di creare documenti clinici, sintesi di cartelle, piani terapeutici personalizzati, contenuti formativi e persino simulazioni di scenari clinici complessi.

Le applicazioni concrete possono generare protocolli clinici su misura, sintetizzare ciò che occorre realmente dalla infinita letteratura scientifica per supportare le decisioni mediche.

Per non parlare dei modelli multimodali di grandi dimensioni (LMM), l'ultima frontiera Dell'Intelligenza Artificiale Generativa, vale a dire la capacità di processare simultaneamente testo, immagini, audio e video, che li rende potenti alleati in ambito Healthcare & Life Sciences. […].

"Le principali problematiche giuridiche riguardano la tematica della responsabilità civile", dice Matteo Cerretti, Head of Insurance Italy and Insurance Commercial Director Europe dello studio legale internazionale DWF: "l'uso di AI generativa in ambito sanitario si accompagna al crescere del rischio che una raccomandazione algoritmica non trasparente (black box effect), renda difficile ascrivere la responsabilità tra medico, struttura e produttore del software. L'utilizzo dell'Intelligenza Artificiale richiede un trattamento del dato sanitario complesso, automatizzato e profilante, che richiede nel rispetto del GDPR una solida base giuridica ed un consenso informato più esteso, anche volto a consentire l'uso dell'IA nel trattamento sanitario.

L'operatore sanitario non è privato di responsabilità; il suo ruolo diviene quello di verificare i risultati generati dell'IA, essendo chiamato ad una loro interpretazione critica, ferma la responsabilità della struttura sanitaria nei casi di omissione di procedure di controllo, formazione e gestione di questo "nuovo" profilo di rischio. Anche la posizione del "produttore" del software cambia, potendo rispondere per il caso di difetti di tali software, a condizione che degli stessi se ne possa offrire la prova, essendo difficile rinvenire una responsabilità oggettiva (ovvero, responsabilità senza colpa) collegata al mero impiego dell'IA".

Scarica qui l'articolo completo

Further Reading