Please use this identifier to cite or link to this item:
http://hdl.handle.net/20.500.14076/29044| Title: | Integración de métodos avanzados de visión computacional para el desarrollo de un sistema de segmentación de lesiones en pie diabético |
| Authors: | Taipe Ramos, Lucas Nicolas |
| Advisors: | Cómina Bellido, Germán Yuri |
| Keywords: | Pie diabético;Segmentación;Modelos fundacionales;Visión por computadora |
| Issue Date: | 2025 |
| Publisher: | Universidad Nacional de Ingeniería |
| Abstract: | Este estudio presenta un sistema de visión por computadora que integra modelos clásicos y fundacionales basados en Transformers para segmentar lesiones de pie diabético, complicación frecuente y severa de la diabetes. Modelos fundacionales como Segment Anything Model, entrenados con millones de imágenes, permiten obtener segmentaciones precisas mediante prompts en lugar de costosos procesos de fine tuning. El flujo de trabajo consiste en lo siguiente. Primero YOLOv5 localiza la lesión; segundo EDSR aumenta la resolución de la región de interés; tercero SLIC genera superpíxeles y VGG16 extrae descriptores; cuarto una regresión logística clasifica cada superpíxel como lesión o piel sana; quinto los centroides positivos, las cajas de YOLOv5 y la imagen original actúan como prompt para SAM, que produce la máscara final aprovechando su atención global. En pruebas con un conjunto diverso de imágenes, el sistema alcanzó un Índice de Jaccard de 0.941 y un coeficiente de Dice de 0.969, superando el ajuste directo de SAM y enfoques puramente convolucionales, a la vez que redujo tiempo y coste computacional. La solución brinda una herramienta avanzada para monitorizar úlceras, disminuye el riesgo de infecciones y optimiza el seguimiento de la cicatrización en pacientes con pie diabético, al aplicar los avances más recientes en visión por computadora a esta área clínica. This study introduces a computer-vision system that melds classical techniques with foundation models based on Transformers to segment diabetic-foot ulcers, a frequent and serious complication of diabetes. Foundation models such as the Segment Anything Model, trained on millions of images, can generate accurate segmentations via prompts instead of costly fine-tuning. The workflow proceeds as follows. YOLOv5 first locates the ulcer; EDSR then enhances the region’s resolution; SLIC forms superpixels and VGG16 extracts their descriptors; a logistic-regression classifier labels each superpixel as ulcer or healthy skin; finally, the positive centroids, YOLOv5 bounding boxes, and the original image serve as a prompt for SAM, which outputs the final mask using its global-attention mechanism. Tested on a diverse image set, the system achieved a Jaccard Index of 0.941 and a Dice coefficient of 0.969, outperforming direct SAM fine-tuning and purely convolutional approaches while cutting training time and computational cost. The resulting tool advances ulcer monitoring, lowers infection risk, and streamlines healing assessment in diabetic-foot patients by bringing the latest computer-vision breakthroughs to this clinical domain |
| URI: | http://hdl.handle.net/20.500.14076/29044 |
| Rights: | info:eu-repo/semantics/openAccess |
| Appears in Collections: | Ingeniería Física |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| taipe_rl.pdf | 33,93 MB | Adobe PDF | View/Open | |
| taipe_rl(acta).pdf | 361,76 kB | Adobe PDF | View/Open | |
| informe_de_similitud.pdf | 342,4 kB | Adobe PDF | View/Open | |
| carta_de_autorización.pdf | 230,21 kB | Adobe PDF | View/Open |
This item is licensed under a Creative Commons License
Indexado por: