Paso 4: Entrene su modelo de IA
Tiempo: 5–10 minutos
Sus regiones de inspección ya están configuradas. Ahora es momento de enseñar a la IA qué aspecto tiene lo 'bueno' y lo 'malo'.
Las tres reglas cardinales del entrenamiento
Antes de nada, internalice estas tres reglas. Se aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.
Regla 1: Etiquetar solo a partir de la imagen
Nunca mire la pieza física (o la coloque bajo un microscopio) para decidir si está buena o mala. Si no puede ver el defecto en la imagen de la cámara, la IA no podrá aprenderlo.
La IA no es magia. Solo puede trabajar con lo que la cámara ve. Si etiqueta una pieza como "defectuosa" basándose en algo que notó al tocarla o al hacer zoom con una lupa, pero la imagen de la cámara se ve bien, está enseñando a la IA a ver algo que no está allí.
Si no puede etiquetarlo a partir de la imagen por sí sola, regrese al paso de instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo diferente.
Regla 2: Verifique sus etiquetas una y otra vez
Los errores de etiquetado le pueden ocurrir a cualquiera; incluso a ingenieros experimentados. Pero una mala etiqueta en un conjunto de datos pequeño puede arruinar sus resultados.
Con 5 imágenes de entrenamiento, una etiqueta incorrecta corrompe el 20% de sus datos de entrenamiento. Eso es catastrófico.
Antes de cada corrida de entrenamiento: haga clic en View All ROIs y verifique cada anotación. Esto es lo más fácil de corregir y lo más impactante.
Regla 3: Empieza pequeño, itera rápido
No etiquete 50 imágenes y luego inicie el entrenamiento. En su lugar, cree un ciclo corto: etiquete 3-5 imágenes por clase, entrene en modo de desarrollo (aproximadamente 30 segundos), pruebe e intente hacer que falle, luego agregue datos dirigidos donde falle. Repita este ciclo 2-4 veces en modo de desarrollo, luego cambie a modo de producción.
Este ciclo es su ruta más rápida hacia un buen modelo. Ejecútelo 2-4 veces en modo de desarrollo, luego cambie a modo de producción.
Flujo de entrenamiento paso a paso
1. Capturar imágenes de entrenamiento inicial
Con su receta activa y las piezas fluyendo (o colocadas manualmente), capture imágenes. Necesita un mínimo de 3-5 imágenes por clase para empezar.
Para una inspección simple de pasa/falla:
- 3-5 imágenes de piezas buenas
- 3-5 imágenes de piezas defectuosas
2. Etiquetar las imágenes

Para cada ROI en cada imagen, asigne la etiqueta de clase correcta:
- Clasificador: Seleccione la clase desde un desplegable (p. ej., "pass" o "fail")
- Segmentador: Use la herramienta de pincel para pintar las áreas defectuosas píxel por píxel
Si no está seguro de si usar clasificación o segmentación, comience con clasificación. Es mucho más rápido de etiquetar y adecuado para la mayoría de los escenarios de pass/fail. Consulte Classifier vs. Segmenter para orientación.
3. Entrenar en Modo de Desarrollo
Haga clic en Train y seleccione Development Mode. Esto toma aproximadamente 30 segundos y genera un modelo que es aproximadamente 20x menos preciso que el modo de producción, pero es suficiente para verificar la señal.
Qué significa "checking the signal": ¿La IA está empezando a aprender la diferencia entre lo bueno y lo malo? ¿O lo está haciendo todo completamente mal?
- Si está mayormente correcto → buena señal, siga adelante
- Si está completamente equivocado → algo está mal. Verifique errores de etiquetado, verifique el tamaño de ROI, verifique la calidad de la imagen
4. Probar con Vista Previa en Vivo

Haga clic en Live Preview Mode y pase las piezas a través. Observe los resultados:
- ¿Están acertando los casos fáciles?
- ¿Dónde tiene dificultades?
- ¿Cuáles son los casos límite?
Inténtelo romper. Encuentre los casos en los que falla. Estas fallas son su hoja de ruta para la mejora.
5. Agregar datos dirigidos
No agregue imágenes nuevas al azar. Agregue imágenes específicamente orientadas a los modos de fallo que encontró:
- Si confunde arañazos con reflejos, agregue más ejemplos de ambos
- Si se le escapan defectos pequeños, agregue más imágenes de defectos pequeños
- Si falla en piezas en las esquinas, agregue más ejemplos de esquinas
6. Reentrenar y volver a probar
Repita los pasos 3-5 entre dos y cuatro veces. Cada iteración debería mejorar la precisión.
7. Cambiar a Modo de Producción
Cuando el modo de desarrollo funcione razonablemente bien, cambie a Production Mode. Esto toma entre 5 y 10 minutos, pero genera un modelo aproximadamente 20x más preciso que el modo de desarrollo.
Si el modo de desarrollo acertaba alrededor del 80% de los casos, es probable que el modo de producción alcance el 95% o más.
Aumentaciones: enseñar a la IA a manejar variación
Las aumentaciones modifican aleatoriamente sus imágenes de entrenamiento durante el proceso de entrenamiento, ajustando el brillo, añadiendo rotación, modificando el contraste, etc. Cada imagen se alimenta a la IA cientos de veces con aumentaciones ligeramente diferentes, pero la etiqueta permanece igual.
Esto es increíblemente poderoso para construir robustez frente a variaciones. Si la iluminación varía entre turnos, la aumentación de brillo enseña a la IA a manejarla. Si las piezas pueden llegar en cualquier ángulo, la aumentación de rotación hace que la orientación sea irrelevante.
Cuándo usar aumentaciones
| Aumento | Usar cuando... | Escenario de ejemplo |
|---|---|---|
| Brillo | La iluminación varía (día/noche, sombras) | Las luces generales de la fábrica cambian a lo largo del día |
| Rotación | La pieza puede llegar en cualquier ángulo | Agujeros de tornillo, donde la orientación no importa |
| Desenfoque por movimiento | Las piezas se mueven rápido o la cámara tiembla | Cinta transportadora de alta velocidad |
| Saturación | El color no forma parte de su inspección | La misma pieza en diferentes colores debe pasar por igual |
| Contraste | La iluminación ambiental fluctúa | Cambios de luz estacionales a través de las ventanas |
Cuándo NO usar aumentaciones
Este es un arma de doble filo. Si añades aumentación de rotación pero estás inspeccionando si las piezas están orientadas correctamente, enseñarás a la IA que las piezas al revés siguen siendo "buenas".
- ¿Inspeccionando la consistencia de color? No use la aumentación de saturación
- ¿Inspeccionando desenfoque/foco? No use la aumentación de desenfoque por movimiento
- ¿Inspeccionando orientación? No use la aumentación de rotación La regla: Aumenta todo excepto la propiedad específica que estás inspeccionando.
La diversidad de datos importa
Tus datos de entrenamiento deben representar toda la gama de lo que la IA verá en producción:
- Diferentes momentos del día (si la iluminación varía)
- Diferentes lotes de piezas (el acabado de la superficie puede variar ligeramente)
- Piezas en diferentes posiciones dentro del marco
- Casos fáciles y difíciles
Concentra tus esfuerzos en los casos más difíciles. Si tus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la IA.
Alta capacidad de aprendizaje
La IA de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de IA que se estancan tras 20 imágenes, este modelo continúa mejorando con 50, 100 e incluso 500+ imágenes. La mayoría de las inspecciones funcionan muy bien con 5-10 imágenes, pero si tienes un problema complejo de múltiples defectos, no dudes en seguir añadiendo datos.
Acelere con datos sintéticos: Defect Studio
¿Qué pasa si necesita entrenar para un defecto que rara vez ve? Un tornillo ausente que tendría que quitar intencionalmente, un rasguño que tendría que crear, una grieta que ocurre una vez por cada mil piezas. ¿Esperar meses para recoger suficientes ejemplos no es práctico?
El OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes de defectos sintéticos fotorrealistas, hasta 10,000x más rápido que esperar a que aparezcan defectos reales en la línea de producción.
Cómo funciona: 5 pasos simples
- Subir una buena imagen de su pieza
- Marcar el área donde debería aparecer el defecto
- Describir el defecto en inglés sencillo (p. ej., "deep scratch across the surface" o "missing solder joint")
- Generar las variaciones del defecto (la IA genera resultados fotorrealistas)
- Exportar las imágenes sintéticas directamente a su conjunto de entrenamiento
Por qué funcionan los datos sintéticos
Las imágenes generadas no son simples artefactos pegados. Son variaciones fotorrealistas que coinciden con su iluminación real, ángulo de la cámara y la superficie de la pieza. La IA entiende la física de cómo se ven los defectos bajo sus condiciones de captura específicas.
Casos de uso
- Defectos raros: Entrene para modos de fallo que nunca (o rara vez) ha visto
- Lanzamientos de nuevos productos: Construya una inspección antes de que salga la primera pieza defectuosa de la línea
- Casos límite: Genere ejemplos limítrofes para mejorar la frontera de decisión de la IA
- Aumento de datos: Suple conjuntos de datos pequeños con variedad sintética
Véalo en acción
El mejor enfoque: entrene con sus 3-5 imágenes reales iniciales primero, identifique dónde la IA tiene dificultades, luego use Defect Studio para generar ejemplos sintéticos dirigidos a esos modos de fallo específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.
Lista de verificación de entrenamiento
Antes de continuar, confirme:
- Imágenes iniciales capturadas, mínimo 3-5 por clase
- Todas las etiquetas revisadas (View All ROIs)
- Modo de desarrollo entrenado y probado con Live Preview
- Modos de fallo identificados y datos dirigidos añadidos
- 2-4 iteraciones de etiquetado → entrenamiento → prueba completadas
- Modo de producción entrenado; los resultados cumplen las expectativas
¿El modelo está entrenado y funcionando bien? Avance a Paso 5: Configuración de salidas.