Este caso de estudio documenta el desarrollo de un sistema de visión artificial aplicado al proceso de plegado de piezas metálicas en Matricerías del Centro, dentro del proyecto MATRICERIAS 4.0 de transformación digital. El objetivo es doble: prevenir defectos de calidad originados por un posicionamiento incorrecto de las piezas y reforzar la seguridad detectando la presencia de personal no autorizado en zonas de riesgo.
1. Captura de datos
Se instalaron cámaras industriales de alta resolución en estaciones de plegado. Estas cámaras capturan el entorno real de trabajo, incluyendo condiciones de iluminación, diferentes geometrías de piezas y la presencia de operarios. Los datos visuales sirvieron como base para construir el dataset.
2. Extracción de fotogramas clave
A partir de los vídeos grabados se extrajeron fotogramas representativos para reducir redundancia y capturar variabilidad. Estos fotogramas constituyen las muestras para el etiquetado.
3. Etiquetado en CVAT
El dataset fue anotado manualmente con la herramienta CVAT. Se definieron las siguientes clases relevantes:
• pieza_posicion_correcta
• pieza_posicion_incorrecta
• pieza_plegada
• operario
• persona_externa
Cada fotograma fue revisado cuidadosamente para asegurar consistencia, especialmente en la distinción entre pieza correcta e incorrecta, que es crítica para la validación de calidad.
4. Generación del dataset en formato YOLO
El dataset anotado se exportó en formato YOLO para detección de objetos, junto con el archivo de configuración (.yaml). Se mantuvo una separación clara entre particiones de entrenamiento, validación y test, evitando fuga de datos entre sets.
5. Entrenamiento del modelo YOLO
Se utilizó un modelo de la familia YOLOv8, entrenado sobre el dataset específico de plegado de piezas. El proceso incluyó transferencia de aprendizaje desde modelos preentrenados y técnicas de aumento de datos (variaciones de brillo, contraste, rotación mínima y escalado) para robustez.
Objetivos del entrenamiento:
• Diferenciar pieza_posicion_correcta de pieza_posicion_incorrecta con precisión >98%.
• Recall cercano al 100% para la clase persona_externa.
• Rendimiento en tiempo real >15 FPS en hardware de borde.
6. Validación del modelo
La validación se llevó a cabo con un conjunto de test independiente. Los principales resultados fueron:
• Precisión global (mAP) >97% en todas las clases.
• Recall de la clase persona_externa >99%, garantizando la detección de cualquier intrusión.
• Análisis de matriz de confusión para confirmar que no se producen confusiones críticas entre pieza_posicion_correcta y pieza_posicion_incorrecta.
• Evaluación de falsos negativos priorizada: un error en la detección de una pieza incorrecta podría ocasionar scrap y costes adicionales; por tanto, se calibró el umbral de confianza para reducir este riesgo.
Se realizaron pruebas cualitativas con imágenes de piezas correctas e incorrectas, así como con la detección de personas externas. Los resultados confirmaron que el modelo funciona de manera estable en condiciones reales de planta.
7. Inferencia en tiempo real
El modelo se desplegó para procesar vídeo en vivo en la estación de plegado. Las detecciones ocurren frame a frame, permitiendo identificar si la pieza está bien posicionada antes del ciclo de plegado, y si hay una persona no autorizada en el área de riesgo.
En caso de detectar una pieza incorrecta o una persona externa, el sistema puede generar una alerta inmediata y enviar una señal al control de la máquina para pausar la operación.
8. Integración con ERP
Los eventos detectados se integran con el ERP implantado en Matricerías del Centro. Esto permite que cada ciclo de plegado quede registrado, incluyendo las incidencias de calidad o seguridad. Ejemplo de alerta en el sistema:
ALERTA DE CALIDAD [15:53:29]: Posición de pieza INCORRECTA en Plegadora-01. Ciclo de máquina pausado hasta corrección.
9. Bucle de mejora continua (MLOps)
Se implementó un proceso de mejora continua: los casos límite y errores detectados en planta se re-etiquetan y se añaden al dataset, permitiendo reentrenar periódicamente el modelo. Esto asegura que el sistema evolucione con nuevas geometrías de piezas y condiciones cambiantes en planta.
10. Resumen del pipeline
| Fase | Entrada | Proceso | Salida |
| Captura | Vídeos de plegadora | Selección de escenas útiles | Clips de vídeo |
| Extracción | Vídeos | Muestreo de frames | Imágenes clave |
| Etiquetado | Imágenes | Bounding boxes correctas/incorrectas | Dataset YOLO |
| Entrenamiento | Dataset YOLO | Fine-tuning YOLOv8 | Modelo entrenado |
| Validación | Modelo + test | Evaluación de métricas | Umbrales calibrados |
| Inferencia | Flujo de vídeo | Detección frame a frame | Alertas y evidencias |
| Integración | Eventos | Notificación a EXPAI/ERP | Alertas y registros digitales |
11. Figuras de inferencia
Figura 1 – Cámara instalada en plegadora

Figura 2 – Detección de pieza incorrectamente doblada.

12. Conclusiones e impacto
La implementación del sistema de visión artificial en el plegado de piezas ha permitido reducir de manera significativa los defectos de producción y reforzar la seguridad en la planta. La integración con el ERP garantiza la trazabilidad de cada ciclo y la automatización de alertas en tiempo real. Este caso de uso ejemplifica el valor de la inteligencia artificial aplicada a procesos industriales críticos.
Dinos que te ha parecido este artículo, Puntúa (DE 1 A 5 ESTRELLAS).


