OpenEvidence, MDR e AI Act. Il software medico che vale tre mesi.
Non è stata vietata. È stata costruita un'impalcatura legale in cui un sistema RAG di supporto clinico, per restare conforme, dovrebbe smettere di aggiornarsi. Cioè smettere di funzionare.
OpenEvidence è una piattaforma americana di clinical decision support: un sistema di intelligenza artificiale che permette a un medico di porre un quesito clinico in linguaggio naturale e ricevere una risposta sintetica con citazioni puntuali alla letteratura peer-reviewed. Negli Stati Uniti è arrivata a un milione di consultazioni cliniche in un solo giorno il 10 marzo 2026. Il 28 aprile 2026 ha annunciato l'indisponibilità del servizio in Unione europea e Regno Unito, citando la "crescente incertezza normativa" sull'intelligenza artificiale.
I medici italiani se ne sono accorti subito. Su X e su Instagram, in poche ore, hanno fatto la fila per spiegare che gli era stato tolto uno strumento che usavano davvero, tutti i giorni, al letto del paziente. Non un giocattolo. Non un chatbot. Una scorciatoia per scartabellare quindici linee guida e quattro meta-analisi in trenta secondi.
Il regolamento che trasforma un assistente di ricerca in un dispositivo medico
Il Regolamento UE 2017/745, MDR, all'articolo 2 paragrafo 1 definisce dispositivo medico "qualunque strumento, apparecchio, apparecchiatura, software, impianto, reagente, materiale o altro articolo destinato dal fabbricante a essere impiegato sull'uomo, da solo o in combinazione, per una o più delle seguenti destinazioni d'uso mediche specifiche: diagnosi, prevenzione, monitoraggio, previsione, prognosi, trattamento o attenuazione di malattie" (Reg. UE 2017/745, art. 2(1), eur-lex.europa.eu/eli/reg/2017/745/oj).
Il considerando 19 dello stesso regolamento è ancora più esplicito sulla logica: "il software specificamente destinato dal fabbricante a essere impiegato per una o più delle destinazioni d'uso mediche si considera un dispositivo medico, mentre il software destinato a finalità generali, anche se utilizzato in un contesto sanitario, non è un dispositivo medico". Il discrimine non è la tecnologia. È la destinazione d'uso dichiarata dal produttore.
La guida ufficiale della Commissione, MDCG 2019-11 sulla qualificazione e classificazione del software (health.ec.europa.eu), è la chiave di lettura operativa. Un software è Medical Device Software, MDSW, quando "fornisce informazioni che sono utilizzate per prendere decisioni a fini diagnostici o terapeutici". Non importa se la decisione finale resta del medico. Non importa se il medico può rivedere e contestare. Conta che lo strumento entri nel circuito decisionale clinico.
A quel punto scatta la regola 11 dell'allegato VIII MDR. Il software che fornisce informazioni per decisioni diagnostiche o terapeutiche è classe IIa di default, sale a IIb se le decisioni possono provocare un "deterioramento serio" della salute, sale a III se il rischio è la morte. Per chiunque rientri da IIa in su servono certificazione tramite organismo notificato, sistema di gestione della qualità, valutazione clinica, dossier tecnico, sorveglianza post-market, registrazione in Eudamed.
Una piattaforma che risponde a un cardiologo che le chiede "qual è il regime antiaggregante consigliato dopo PCI con stent medicato in paziente con fibrillazione atriale e CHA2DS2-VASc 4" È almeno in classe IIa e molto probabilmente in IIb, data la natura ad alto rischio delle decisioni anticoagulanti, come suggerito dagli esempi ufficiali (es. app per dosaggio anticoagulante) che MDCG colloca in IIb.
Il muro: prestazioni stabili, riproducibili e un sistema che cambia ogni giorno
Qui il sistema legale europeo si schianta contro la natura del prodotto.
Per ottenere e mantenere la marcatura CE, il produttore deve dimostrare che il dispositivo eroga prestazioni costanti, riproducibili, prevedibili nel tempo. Significa che la pipeline di gestione del rischio, la valutazione clinica e il piano di sorveglianza devono potersi appoggiare su un comportamento del software stabile abbastanza da essere misurato.
Un sistema RAG fa l'opposto. Aggiorna con una certa frequenza la base documentale con la nuova letteratura PubMed, Cochrane, NEJM, JAMA, NCCN. Aggiorna il modello generativo sottostante. Modifica i prompt di sistema. Cambia gli algoritmi di ranking e retrieval. Il suo valore clinico è proprio questa fluidità. Esattamente quello che il medico vuole. Esattamente quello che la regolazione MDR considera, potenzialmente, una "modifica sostanziale" che richiede di tornare dall'organismo notificato.
La guida MDCG 2020‑3 sul concetto di ‘significant change’ e, più recentemente, le discussioni IMDRF e MDCG 2025‑6 sull’interplay con l’AI Act indicano il ‘predetermined change control plan’ come possibile modo per delimitare a priori le modifiche coperte dalla certificazione.
Per un sistema che si aggiorna frequentemente, c’è il rischio concreto che aggiornamenti fuori dal PCCP o qualificati come ‘modifiche significative’ comportino un nuovo passaggio con l’organismo notificato, con tempi e costi non banali.
L'AI Act sopra, non al posto
A questo si aggiunge il Regolamento 2024/1689, l'AI Act (eur-lex.europa.eu/eli/reg/2024/1689/oj). All'articolo 6 paragrafo 1 e all'allegato I, l'AI Act stabilisce che un sistema di intelligenza artificiale è "ad alto rischio" se è esso stesso un dispositivo medico, o componente di sicurezza di un dispositivo medico, soggetto a valutazione di conformità di terza parte sotto il MDR.
Quindi la sequenza è questa. Primo passaggio: OpenEvidence in Europa rientra nella definizione MDSW. Secondo passaggio: il MDSW finisce in classe IIa o superiore per la regola 11. Terzo passaggio: classe IIa significa organismo notificato. Quarto passaggio: organismo notificato significa che il sistema di IA è automaticamente high-risk sotto AI Act. Quinto passaggio: high-risk significa governance dei dati, trasparenza, logging, supervisione umana, robustezza, cybersecurity, documentazione tecnica, sistema di gestione del rischio per tutto il ciclo di vita.
Il documento congiunto AI Board e MDCG, MDCG 2025-6, conferma questa lettura: gli obblighi MDR e AI Act non si sovrappongono per cancellarsi, si sommano. Il produttore deve rispettare entrambi, ed entrambi richiedono evidenza continua di prestazioni stabili lungo tutto il ciclo di vita.
L'AI Act non è il colpo di grazia. Il colpo di grazia è il MDR. L'AI Act è il sasso che chiude il coperchio.
Il controfattuale americano: l'eccezione che l'Europa non ha scritto
Negli Stati Uniti la stessa funzione di clinical decision support ha un trattamento diverso, e il dettaglio normativo è chirurgico. La Section 520(o)(1)(E) del Federal Food, Drug, and Cosmetic Act, modificata dal 21st Century Cures Act, esclude dalla definizione di dispositivo medico FDA i software CDS che soddisfano un test in quattro parti. Il quarto requisito è quello decisivo: il software deve consentire al professionista sanitario di rivedere in modo indipendente le basi della raccomandazione, in modo che la decisione clinica non dipenda dall'output del software.
Tradotto: se il sistema mostra le fonti, motiva il ragionamento, lascia al medico la possibilità di controllare e ribaltare, allora non è un dispositivo medico. È uno strumento di supporto al ragionamento, non un sostituto.
L'Europa non ha scritto questa eccezione. La MDCG 2019-11 ribadisce esplicitamente che il fatto che un professionista sanitario possa rivedere la raccomandazione non è di per sé sufficiente a escludere il software dalla qualifica di MDSW. Il criterio resta la destinazione d'uso dichiarata.
Risultato: lo stesso identico software, con lo stesso identico comportamento, è non-dispositivo negli Stati Uniti e classe IIa in Europa. Stesso codice, stessa interfaccia, stesse fonti. Due continenti, due regimi diametralmente opposti. Yan Peng Zhao, su LinkedIn, ha presentato OpenEvidence proprio come l'esempio pratico di questo mismatch regolatorio: senza una clinical decision support exemption europea, il prodotto americano non si trapianta.
Si può obiettare che il problema sia risolvibile. Vero. Esiste già un controesempio europeo: Prof. Valmed, sistema generativo italiano per il supporto clinico, certificato CE classe IIb. Si può fare. Si paga in due valute: tempo, perché la certificazione richiede mesi o anni, e velocità, perché ogni iterazione successiva passa attraverso la stessa procedura. Per un'azienda americana che ha appena chiuso una serie D a 12 miliardi di dollari di valutazione e che si misura sul ritmo di rilascio settimanale, è un costo non-recuperabile.
La chiusura
Il caso OpenEvidence non racconta un divieto. Racconta una cosa più sottile, e politicamente più grave. Racconta che in Europa una norma può proteggere il cittadino sulla carta e sottrargli strumenti utili nella pratica, e che nessuno è formalmente responsabile, perché non c'è stato un atto. C'è stato un sistema.
Un sistema che pretende prestazioni stabili e riproducibili da un oggetto che vive di instabilità, e che chiama questa pretesa "sicurezza". Un sistema in cui l'innovazione sopravvive solo se accetta di andare a velocità burocratica, cioè di non innovare.
Davanti al medico italiano che ieri aveva un assistente in più e oggi non ce l'ha, il regolatore europeo può ancora rispondere "abbiamo tutelato i pazienti". È vero solo in un senso: ha tutelato i pazienti dall'innovazione che nessuno aveva chiesto di vietare.
Fonti
Regolamento (UE) 2017/745, Medical Device Regulation. Art. 2(1) definizione di dispositivo medico. Considerando 19 software. Allegato VIII regola 11 classificazione software. eur-lex.europa.eu/eli/reg/2017/745/oj
MDCG 2019-11, Guidance on Qualification and Classification of Software in Regulation (EU) 2017/745 MDR and Regulation (EU) 2017/746 IVDR. health.ec.europa.eu
Regolamento (UE) 2024/1689, AI Act. Art. 6 e Allegato I per la classificazione high-risk dei sistemi di IA medica. eur-lex.europa.eu/eli/reg/2024/1689/oj
MDCG 2020-3 Guidance on significant changes regarding the transitional provision under Article 120 of the MDR.
MDCG 2025-6, Interplay between MDR/IVDR and AI Act for medical devices.
Federal Food, Drug, and Cosmetic Act, Section 520(o)(1)(E), Clinical Decision Support exemption introdotta dal 21st Century Cures Act 2016.
Yan Peng Zhao, post LinkedIn aprile 2026 sul mismatch CDS exemption tra USA e UE, citando OpenEvidence.
Comunicazione OpenEvidence sulla non disponibilità del servizio in UE/UK, 28 aprile 2026.
Prof. Valmed, dispositivo medico CE classe IIb, esempio europeo di sistema generativo certificato per supporto clinico.

