banner

Notizia

Apr 28, 2023

Robusto e dati

Nature Biomedical Engineering (2023) Citare questo articolo

142 accessi

55 Altmetrico

Dettagli sulle metriche

I modelli di apprendimento automatico per attività mediche possono eguagliare o superare le prestazioni degli esperti clinici. Tuttavia, in contesti diversi da quelli del set di dati di addestramento, le prestazioni di un modello possono peggiorare sostanzialmente. Qui riportiamo una strategia di apprendimento della rappresentazione per modelli di apprendimento automatico applicati a compiti di imaging medico che mitiga tale problema di prestazioni "fuori distribuzione" e che migliora la robustezza del modello e l'efficienza della formazione. La strategia, che abbiamo chiamato REMEDIS (per "Imaging medico robusto ed efficiente con auto-supervisione"), combina l'apprendimento di trasferimento supervisionato su larga scala su immagini naturali e l'apprendimento contrastivo auto-supervisionato intermedio su immagini mediche e richiede una personalizzazione minima specifica per attività. Mostriamo l'utilità di REMEDIS in una serie di attività di diagnostica per immagini che coprono sei domini di imaging e 15 set di dati di test e simulando tre scenari realistici fuori distribuzione. REMEDIS ha migliorato l'accuratezza diagnostica all'interno della distribuzione fino all'11,5% rispetto ai modelli di base supervisionati forti e in contesti fuori distribuzione ha richiesto solo l'1-33% dei dati per la riqualificazione per eguagliare le prestazioni dei modelli supervisionati riqualificati utilizzando tutti i dati disponibili . REMEDIS può accelerare il ciclo di vita dello sviluppo di modelli di apprendimento automatico per l’imaging medico.

Questa è un'anteprima dei contenuti in abbonamento, accessibile tramite il tuo istituto

Accedi a Nature e ad altre 54 riviste Nature Portfolio

Ottieni Nature+, il nostro abbonamento con accesso online dal miglior rapporto qualità-prezzo

$ 29,99 / 30 giorni

annullare in qualsiasi momento

Iscriviti a questo diario

Ricevi 12 numeri digitali e accesso online agli articoli

$ 79,00 all'anno

solo $ 6,58 per numero

Noleggia o acquista questo articolo

Ottieni solo questo articolo per tutto il tempo che ti serve

$ 39,95

I prezzi possono essere soggetti a tasse locali calcolate durante il checkout

I set di dati della Northwestern Medicine e degli Apollo Hospitals sono stati utilizzati su licenza per lo studio attuale e non sono disponibili al pubblico. Le richieste di accesso al database Optimam possono essere effettuate utilizzando questo modulo web. I dati di teledermatologia deidentificati utilizzati in questo studio non sono disponibili al pubblico a causa delle restrizioni previste dall'accordo di condivisione dei dati. Il set di dati senza etichetta utilizzato per la classificazione DME è costituito da dati non identificati provenienti da EyePACS Inc. I ricercatori interessati devono contattare [email protected] per informazioni sull'accesso ai dati EyePACS e rivolgersi all'Ufficio di ricerca e sviluppo per informazioni sull'accesso ai dati VA. Il resto dei dati annotati per le attività di classificazione ID e OOD DME sono stati raccolti presso l'ospedale Rajavithi Thailandia e presso il Lions Eye Institute e non sono disponibili al pubblico a causa delle restrizioni previste dall'accordo di condivisione dei dati. I dati utilizzati nella valutazione e nella formazione preliminare della classificazione delle condizioni dei raggi X del torace, inclusi MIMIC-CXR, CheXpert e ChestX-ray 14 sono disponibili al pubblico. I dati utilizzati per la messa a punto dell'identificazione e la valutazione del rilevamento delle metastasi sono disponibili al pubblico sul sito web della sfida CAMELYON. I dati TCGA utilizzati per il pre-addestramento sia per il rilevamento delle metastasi basate sulla patologia che per le attività di previsione della sopravvivenza sono disponibili tramite il sito Web NIH. Il resto dei dati utilizzati nelle attività di patologia non sono disponibili al pubblico a causa delle restrizioni previste dall’accordo sulla condivisione dei dati. Inoltre, ImageNet-1K (ILSVRC-2012)68 utilizzato per il preaddestramento di modelli supervisionati di base e ImageNet-21K utilizzato per il preaddestramento di modelli BiT-M sono disponibili al pubblico tramite il sito Web ImageNet. I modelli BiT-L addestrati sul set di dati JFT-300M54 non sono disponibili al pubblico a causa delle restrizioni nell'accordo di condivisione dei dati.

Diversi componenti principali del lavoro sono disponibili in repository open source, come la libreria T. La base di codice e i pesi preaddestrati utilizzati per il preaddestramento autosuperato sono disponibili presso S. La base di codice e i pesi preaddestrati per i modelli BiT sono disponibili presso B. Tutti gli esperimenti e i dettagli di implementazione sono descritti in modo sufficientemente dettagliato in Metodi e in Informazioni supplementari a supporto replica con librerie non proprietarie. La base di codice utilizzata per il nostro confronto con ResNet-RS era basata su R. Alcuni checkpoint e modelli generati tramite REMEDIS sono facilmente accessibili ai ricercatori tramite P. Inoltre, i repository Foundation Medical ML su GitHub offrono accesso a codici che possono essere utilizzato per addestrare modelli basati su REMEDIS.

CONDIVIDERE