AFFILIAZIONE
amolab srl
AUTORE PRINCIPALE
Reho Elisa
VALUTA IL CHALLENGE
GRUPPO DI LAVORO
Botrugno Chiara consiglio nazionale delle ricerche (cnr), istituto di fisiologia clinica (ifc)
Bottino Alberto università del salento, dipartimento di ingegneria dell’innovazione
Calcagnile Salvatore amolab srl
AREA TEMATICA
ABSTRACT
Metodi: È stata condotta un’analisi prospettica che coinvolge donne nella seconda fase del travaglio provenienti da 23 centri clinici, nell’ambito dello studio multicentrico “AI-Occiput”. Dal dataset di immagini AI-Occiput sono state selezionate un totale di 2154 immagini TPU della testa del feto nel piano assiale. Tutte le immagini sono state classificate come OA, OP, ROT o LOT in base ai risultati dell’ecografia transaddominale, considerata come “gold standard”, e sono state suddivise in tre gruppi (Allenamento, Validazione, Test) con un rapporto 70:15:15. Tre modelli della CNN sono stati addestrati per classificare le immagini TPU come OA, OP, ROT o LOT. Le prestazioni del classificatore sono state valutate considerando i parametri di accuratezza, sensibilità, specificità, F1-score e il kappa di Cohen (k).
Risultati: L’accuratezza del modello CNN sul Test Set per la classificazione della posizione della testa del feto nel piano assiale con ecografia transperineale risulta pari al 93,5%. Inoltre, il modello CNN presenta una sensibilità del 95,1 %, una specificità del 91,4 % e un F1-score del 91,2%. Il modello ha dimostrato anche un buon grado di accordo con il “gold standard” (kappa di Cohen = 0,90, p < 0,0001). Conclusione: L'approccio sviluppato può differenziare in modo efficace e automatico le posizioni dell'occipite OA, OP, ROT e LOT. L'algoritmo potrebbe supportare con successo le ostetriche nell'uso clinico del TPU, fornendo una valutazione della posizione fetale indipendente dall'operatore.