Noticias

Exploran si la IA para radiología veterinaria se puede utilizar de forma fiable

25 de Febrero de 2025

Para desentrañar estas premisas, un estudio internacional ha buscado comparar el desempeño diagnóstico para la interpretación de radiografías caninas y felinas de un software de radiología de IA comercial y propietario de uso común con el desempeño de los radiólogos veterinarios. Plantearon la hipótesis de que el desempeño diagnóstico del software de radiología de IA sería al menos tan bueno como el del radiólogo humano promedio, y el desempeño diagnóstico del software de radiología de IA sería peor en relación con el de los radiólogos humanos promedio en entornos de alta ambigüedad. Para realizar el trabajo, se obtuvieron radiografías, y cada una de ellas fue evaluada por radiólogos veterinarios y el software de IA.



La IA se entrenó con un conjunto de datos multicéntrico de gran tamaño que comprendía imágenes radiográficas y datos clínicos de más de 3000 consultorios veterinarios en más de diez países. El software procesó únicamente las imágenes proporcionadas sin tener en cuenta información clínica adicional. Con base en la información de todas las radiografías del estudio, proporcionó un diagnóstico codificado, normal o anormal, para cada caso.



Por otro lado, se reclutaron radiólogos veterinarios certificados. Los radiólogos participantes tuvieron acceso al historial y los signos clínicos. Se les pidió que proporcionaran un informe escrito en inglés en formato digital. El informe debía contener una parte descriptiva y una de diagnóstico y estar escrito en el estilo que el radiólogo estaba acostumbrado a informar.


Un 84 % de hallazgos normales y un 16 % anormales



Los 50 estudios radiográficos tuvieron una media de 5,64 radiografías, con un rango de 1 a 16 radiografías por estudio. Once radiólogos veterinarios participaron en el estudio, cada uno de los cuales proporcionó una media de 24,8 informes radiológicos (rango 24-25), lo que dio como resultado una media de 5,46 informes por estudio. El consenso estableció una muestra desequilibrada, con un 84 % de hallazgos normales y un 16 % anormales.



Los radiólogos con peor desempeño, desempeño medio y mejor desempeño (de aquí en adelante peores, medianos y mejores radiólogos) se determinaron. El software de IA fue significativamente más preciso que cualquier radiólogo mediano. No obstante, no hubo diferencia significativa en el desempeño entre el mejor radiólogo y el software de IA. Por lo tanto, “el software de IA no fue menos preciso que cualquier radiólogo, lo que confirma nuestra primera hipótesis”.



Asimismo, explican que, dado que la frecuencia de anomalías en la muestra fue del 16 %, “estaba desequilibrada”, y el desempeño en la detección de anomalías varió ampliamente. Mientras que el peor radiólogo detectó solo un poco más de seis de cada 10 anomalías, el radiólogo mediano detectó más de ocho de cada 10 anomalías, y el mejor radiólogo detectó el 92% de las anomalías. En este caso, “los radiólogos humanos tendieron a ser mucho mejores que el software de IA (68,8 %) en la detección de anomalías, y nueve radiólogos fueron significativamente más sensibles”. La sensibilidad de dos radiólogos no difirió significativamente de la del software de IA.



En el análisis de las capacidades de los observadores para detectar la normalidad, se encontró una imagen inversa en comparación con la sensibilidad. El software de IA detectó el 94,4 % de todos los hallazgos normales, mientras que el mejor radiólogo humano detectó solo el 93,6 % de los hallazgos normales, el radiólogo humano medio detectó el 88,3 % de los hallazgos normales y el peor radiólogo humano detectó el 79,8 % de los hallazgos normales. “El software de IA superó significativamente a diez radiólogos”. Sin embargo, un radiólogo veterinario fue tan bueno como el software de IA en la identificación de la normalidad.


Pruebas en entornos de alta ambigüedad



Para probar la segunda hipótesis del estudio, los entornos de alta ambigüedad capturaron casos en los que los hallazgos radiográficos fueron más matizados y requirieron el mayor contexto clínico. En situación de alta ambigüedad, la precisión disminuyó para los peores (0,484), la mediana (0,650) y los mejores radiólogos (0,741), así como para el software de IA (0,701). “El software de IA fue significativamente más preciso que siete radiólogos, pero insignificantemente menos preciso que el mejor radiólogo, lo que refuta nuestra segunda hipótesis”. La IA no detectó anomalías tan bien como siete radiólogos. En términos de especificidad, la IA, comentan, tuvo un desempeño significativamente mejor que todos los radiólogos excepto dos pero significativamente peor que el mejor radiólogo.



“Nuestra hipótesis de que los radiólogos humanos superarían a la IA en precisión en una situación de alta ambigüedad suponía que la plasticidad del razonamiento humano sería más adecuada para esto que un reconocimiento de patrones de IA mecanicista basado en un conjunto de entrenamiento finito, pero esto fue rechazado en este estudio”.



En resumen, concluyen que la IA de última generación para radiología veterinaria comercial se puede utilizar de forma fiable para determinar hallazgos descriptivos a partir de radiografías caninas y felinas, lo que la hace adecuada para un uso más amplio y aumenta la disponibilidad de expertos en el campo. Si bien la IA muestra potencial para aumentar las capacidades de diagnóstico veterinario, “su uso óptimo reside en complementar la experiencia humana”. Al aprovechar las fortalezas de la IA y los radiólogos humanos, la IA “puede mejorar la precisión del diagnóstico, aumentar la disponibilidad de opiniones de expertos y mejorar los resultados de los pacientes en la atención médica veterinaria”.

Otros artículos de interés

Publicidad1
Publicidad2
Publicidad3
logo

Federacion de Colegios de Médicos Veterinarios de Venezuela

©2018 - Todos los derechos Reservados
Página desarrollada por Inteleca

Suscríbete a nuestro newsletters y reciba periódicamente las últimas noticias e información sobre futuros eventos.