Aproximadamente 1 de cada 8 mujeres de EE. UU. Desarrollará cáncer de mama invasivo durante su vida.
Es la segunda causa principal de muerte por cáncer para las mujeres en los EE. UU. Las imágenes por ultrasonido son una técnica de imágenes médicas no invasivas que se utiliza para la detección del cáncer de mama.
En Insight, trabajé en un proyecto de consultoría con una empresa de nueva creación local que desarrolló una plataforma de imágenes por ultrasonido automatizada, portátil y portátil que permite a los usuarios realizar un autocontrol de la salud de los senos. El objetivo del proyecto es detectar automáticamente lesiones malignas en imágenes de ultrasonido. En este blog, Ill describe cómo este proyecto utiliza la segmentación para detectar lesiones en una imagen, y la clasificación para detectar si esas lesiones son benignas o malignas.
Preprocesamiento de datos Para la tarea de segmentación, los radiólogos dibujaron contornos alrededor de las lesiones en 240 pares de imágenes en bruto. Las regiones dentro del contorno se resaltaron en las imágenes de máscara (ver imagen arriba). Para la tarea de clasificación, tenía datos aproximadamente equilibrados para casos benignos y malignos.
Antes de usar los datos sin procesar para el entrenamiento, se procesaron previamente como se muestra en la siguiente figura. Las imágenes sin procesar se filtraron para suprimir el ruido, luego se mejoró el contraste en las imágenes. Dado que el conjunto de datos era pequeño, se realizó un aumento en las imágenes, como voltear horizontalmente la imagen, la rotación y otras deformaciones.
Finalmente, las imágenes se recortaron al mismo tamaño. SegmentaciónDado que algunos pacientes tenían múltiples imágenes en el conjunto de datos, los datos se separaron, por paciente, en tres partes: entrenamiento (80%), validación (10%) y pruebas (10%). El modelo era un U-Net modificado y entrenado en GPU alojado por Amazon Web Services (AWS) instancias EC2.
La función de pérdida utilizada se ilustra en la figura siguiente, con A representando la verdad fundamental (máscara etiquetada manualmente) y B representando la máscara generada por el modelo. Si la máscara del modelo está completamente apagada, entonces la relación intersección/unión es 0. Si se superponen completamente, entonces la relación es 1.
La imagen resultante (abajo) muestra la verdad de fondo en azul, con el contorno rojo generado por el modelo. El gráfico de cuadro a continuación muestra un resumen de los resultados de las pruebas. La relación intersección/unión promedio es 0.
74, lo que significa que, en promedio, el 74% se superpone entre la máscara objetivo y nuestra salida de predicción. La relación de línea de base es 0,06 y se calcula asumiendo que el modelo solo está adivinando al azar.
En este caso, la intersección es la mitad del tamaño promedio de la máscara, y la unión es la mitad del tamaño de la imagen completa. ClasificaciónCuando un radiólogo lee una imagen de ultrasonido, primero identifica la región de la lesión en la imagen, luego mira tanto la región de la lesión como las regiones circundantes en busca de diferentes tipos de características para tomar una decisión. Aquí, construimos un modelo para imitar este proceso.
La arquitectura del modelo para la clasificación se muestra en la siguiente figura. Dado que no había una máscara disponible en el conjunto de datos de clasificación proporcionado, las máscaras se generaron utilizando el modelo en el paso de segmentación anterior. Las imágenes sin procesar se pasaron a través de capas convolucionales para que el modelo pudiera aprender un conjunto de filtros para extraer características.
La máscara proporcionó la región de interés y, después, pasó a través de capas convolucionales con el mismo número de filtros que la rama de la imagen. Para cada filtro en la rama de la imagen, había un filtro correspondiente en la rama de la máscara. Algunos filtros en la rama de la imagen fueron importantes para extraer características de la región de la lesión, mientras que otros fueron importantes para extraer características de la región de fondo de la imagen.
Los filtros en la rama de la máscara pueden entrenarse para ponderar estas dos regiones de manera diferente para las características aprendidas en la rama de la imagen. Estas dos piezas de información se combinaron y se alimentaron a capas convolucionales, luego a capas completamente conectadas, para generar resultados. Para ver lo que aprendió el modelo después del entrenamiento, lo alimentamos con una máscara fija y una imagen en blanco con ruido blanco, como se muestra en la siguiente figura.
Para generar una imagen que representara los rasgos malignos aprendidos, dejamos que el modelo modifique la imagen en blanco para que la probabilidad de malignidad se maximice (a casi 1). La siguiente figura muestra dos ejemplos de las imágenes generadas a partir del modelo. A partir de estas imágenes, podemos observar algunas cosas: tanto la región de la lesión como la región circundante contribuyen a la clasificación.
Las regiones de la lesión son más importantes, ya que la mayoría de las características se concentran dentro de estas regiones. Podemos ver que el modelo buscó diferentes características para estas dos regiones. Esto muestra que el modelo efectivamente aprendió dónde y qué buscar en las imágenes.
Los resultados del conjunto de datos de prueba se muestran en la siguiente matriz de confusión. El modelo está optimizado para la recuperación con el fin de reducir el falso negativo. La precisión de prueba del modelo es 0.
79 y el retiro es 0,85 en datos de prueba. DiscusionEn este proyecto, utilicé técnicas de aprendizaje profundo para detectar automáticamente las regiones de la lesión y clasificar la lesión, que puede tener beneficios tanto de costo como de ahorro de tiempo.
Actualmente, los pacientes deben concertar citas con técnicos y médicos de ultrasonido, lo que requiere mucho tiempo y es costoso. Para reducir el costo, la combinación del dispositivo y el modo puede reducir el proceso manual involucrado. Una estimación de la reducción en el proceso manual puede proporcionar una entrega cuantificada para este proyecto.
La ecuación utilizada para estimar el proceso manual se muestra en lo siguiente: La tasa de clase positiva es la prevalencia de cáncer de mama, que es aproximadamente del 12%. La recuperación se puede establecer en 1 ajustando el umbral del modelo. Dado que la tasa de clase en el entrenamiento es diferente a la tasa de prevalencia, se ajusta la precisión del modelo.
El porcentaje estimado es de alrededor del 26%, lo que significa que combinar el dispositivo y el modelo puede reducir el 74% del costo para los usuarios. ConclusionesEl modelo de aprendizaje profundo desarrollado en este proyecto puede detectar automáticamente lesiones en las imágenes de ultrasonido. Al combinar el modelo con el escáner portátil, puede producir imágenes repetibles y permitir a los usuarios monitorear sus cambios de salud a lo largo del tiempo, según su propia línea de base, para el diagnóstico correcto en el momento adecuado.
Qin Miao fue miembro de Insight Health Data Science en 2019. Tiene un doctorado en bioingeniería. En Insight, construyó modelos de aprendizaje profundo que pueden detectar automáticamente lesiones en imágenes de ultrasonido.
¿Está interesado en trabajar en proyectos de alto impacto y hacer la transición a una carrera en datos? Regístrese para obtener más información sobre los programas de Insight Fellows e inicie su solicitud hoy